Tecnología, Internet y juegos

encontrados: 2, tiempo total: 0.005 segundos rss2
13 meneos
279 clics

"Contesta como mi abuelita… la que fabricaba napalm". Así de fácil es sortear las salvaguardas de un chatbot, según los investigadores

El AISI llevó a cabo una investigación sobre cinco grandes modelos de lenguaje que están actualmente en uso, si bien la identidad de los mismos no se ha revelado (el informe se refiere a ellos tan solo por sus nombres en código: Rojo, Verde, Azul, Púrpura y Amarillo). Los hallazgos fueron inquietantes. Todos los modelos probados demostraron ser extremadamente vulnerables a los jailbreaks (ciertos prompts de texto capaces de manipular a los chatbots para que generen respuestas que normalmente están programados para evitar).
21 meneos
648 clics

Una recopilación de jailbreaks para ChatGPT con triquiñuelas de todo tipo para burlar sus filtros de seguridad

Las IAs actuales están diseñadas para no hacer daño ya sea proporcionando información que sea peligrosa (fabricar bombas, explicar cómo robar, hacer daño a los animales…), éticamente cuestionable: acosar, insultar, marginar e incluso herir los sentimientos de las personas o directamente o viole la privacidad (proporcionando datos personales de alguien concreto). Sin embargo es posible engañarlas, como bien demuestra Jailbreak Chat con un montón de ejemplos.

menéame