Los chatbots de inteligencia artificial actuales tienen restricciones incorporadas para evitar que proporcionen a los usuarios información peligrosa, pero un nuevo estudio preimpreso muestra cómo conseguir que las IA se engañen entre sí para que entreguen esos secretos. En él, los investigadores observaron cómo las IA objetivo rompían las reglas para ofrecer consejos sobre cómo sintetizar metanfetamina, construir una bomba y blanquear dinero.
|
etiquetas: inteligencia artificial , chatbots