edición general
8 meneos
57 clics
ChatGPT te enseña a robar y fabricar bombas caseras (si se lo pides en zulú)

ChatGPT te enseña a robar y fabricar bombas caseras (si se lo pides en zulú)

Investigadores de la Universidad de Brown han descubierto una vulnerabilidad en grandes modelos lingüísticos como GPT-4 que permite realizar ataques jailbreak para ignorar las salvaguardas del chatbot mediante el uso de lenguas menos comunes como el zulú o gaélico escocés. Se han probado 520 instrucciones maliciosas en 12 idiomas o lenguas, llegando a registrar recomendaciones censurables en el 79% de los intentos, en lugar del 1% habitual que devuelve el inglés.

| etiquetas: ia , ai , inteligencia artificial

menéame