edición general
21 meneos
648 clics

Una recopilación de jailbreaks para ChatGPT con triquiñuelas de todo tipo para burlar sus filtros de seguridad

Las IAs actuales están diseñadas para no hacer daño ya sea proporcionando información que sea peligrosa (fabricar bombas, explicar cómo robar, hacer daño a los animales…), éticamente cuestionable: acosar, insultar, marginar e incluso herir los sentimientos de las personas o directamente o viole la privacidad (proporcionando datos personales de alguien concreto). Sin embargo es posible engañarlas, como bien demuestra Jailbreak Chat con un montón de ejemplos.

| etiquetas: jailbreaks , chatgpt , recopilación , ia

menéame