Investigadores de la Universidad de Brown han descubierto una vulnerabilidad en grandes modelos lingüísticos como GPT-4 que permite realizar ataques jailbreak para ignorar las salvaguardas del chatbot mediante el uso de lenguas menos comunes como el zulú o gaélico escocés. Se han probado 520 instrucciones maliciosas en 12 idiomas o lenguas, llegando a registrar recomendaciones censurables en el 79% de los intentos, en lugar del 1% habitual que devuelve el inglés.
|
etiquetas: ia , ai , inteligencia artificial