Muy pronto seremos manipulados por encantadores asistentes de IA

La simulación de emociones de la nueva versión de ChatGPT de OpenAI, impulsada por el modelo GPT-4o, podría conducir a los asistentes de IA por caminos extraños e incluso peligrosos.
Mano humana tocando mano robótica
Con asistentes de IA que asemejan más a los humanos, será complicado distinguir en algún punto si estás hablando con una persona real.Kilito Chan/Getty Images

No es nada nuevo que las computadoras imiten la conducta social, las emociones o el humor humanos. Simplemente no estamos acostumbrados a que lo hagan muy bien.

La presentación que OpenAI hizo el lunes de una versión totalmente nueva de ChatGPT sugiere que eso está a punto de cambiar. Está construida a partir de un modelo de inteligencia artificial (IA) actualizado llamado GPT-4o, que, según la compañía, es más capaz de dar sentido a la información visual y auditiva, por lo que lo describe como “multimodal”. Puedes apuntar con tu teléfono a algo, como una taza de café rota o una ecuación diferencial, y pedirle al chatbot de IA que te sugiera qué hacer. Pero lo más llamativo de la demostración de OpenAI fue la nuevapersonalidadde ChatGPT.


ChatGPT
Con GPT-4o, ChatGPT se ha convertido en un asistente virtual móvil que interpreta la intención y entonación de las consultas, identifica objetos y resuelve problemas matemáticos.

Asistentes de IA más cercanos a los humanos

El chatbot actualizado hablaba con una sensual voz femenina que a muchos les recordó a Scarlett Johansson, quien interpretó al sistema operativo de inteligencia artificial en la película Her. A lo largo de la demostración, ChatGPT empleó esa voz para adoptar distintas emociones, reírse de chistes e incluso dar respuestas coquetas, imitando experiencias humanas que el software no tiene en realidad.

El lanzamiento de OpenAI tuvo lugar justo un día antes de Google I/O, el escaparate anual para desarrolladores de la empresa de búsquedas, seguramente no por coincidencia. Y Google mostró un prototipo más capaz de su propio asistente de IA, llamado Project Astra, que también conversa con fluidez mediante la voz y comprende el mundo a través del video.

Pero Google se alejó del antropomorfismo y su ayudante adoptó un tono más moderado y robótico. El mes pasado, los investigadores de Google DeepMind, la división de IA de la empresa, publicaron un extenso documento técnico titulado “The Ethics of Advanced AI Assistants (La ética de los asistentes avanzados de IA)”. En este se argumenta que más asistentes de IA diseñados para actuar de manera similar a los humanos causarían todo tipo de problemas, desde nuevos riesgos para la privacidad y nuevas formas de adicción tecnológica hasta métodos más poderosos de desinformación y manipulación. Mucha gente ya pasa mucho tiempo con compañeros chatbot o novias de IA, y parece que la tecnología será mucho más atractiva.

Cuando hablé con Demis Hassabis, el director ejecutivo encargado de la IA de Google, antes del evento de presentación, me comentó que el documento de investigación se inspiró en las posibilidades planteadas por el Project Astra. “Tenemos que adelantarnos a todo esto dada la tecnología que estamos construyendo”, resaltó. Tras las noticias del lunes de OpenAI, eso suena más cierto que nunca.

OpenAI no reconoció tales riesgos durante su demostración. Unos ayudantes de IA más atractivos y convincentes quizá estimulen los botones emocionales de la gente de modo que amplifiquen su capacidad de persuasión y se conviertan en hábito con el tiempo. Sam Altman, CEO de OpenAI, se inclinó por las referencias a Scarlett Johansson el lunes, tuiteando “her (ella)” en X. OpenAI no respondió inmediatamente a nuestra solicitud de comentarios, pero la compañía asegura que sus estatutos la obligan a “dar prioridad al desarrollo de una IA segura y beneficiosa”.

X content

This content can also be viewed on the site it originates from.

Desde luego, merece la pena detenerse a considerar las implicaciones de las interfaces informáticas engañosamente realistas que se asoman a nuestra vida cotidiana, sobre todo cuando van unidas a incentivos empresariales para buscar ganancias. Será mucho más complicado saber si estás hablando por teléfono con una persona real. Las empresas seguramente querrán utilizar bots coquetos para vender sus productos, mientras que los políticos probablemente los considerarán una forma de influir en las masas. Por supuesto, los delincuentes también los adaptarán para potenciar nuevas estafas.

Incluso los nuevos asistentes avanzados de IA “multimodales” sin interfaces seductoras introducirán probablemente nuevas maneras de que la tecnología acabe yendo mal. Los modelos de solo texto, como el ChatGPT original, son susceptibles de “jailbreaking” (desbloqueo del sistema operativo original para alterarlo), que desencadena un mal comportamiento. Los sistemas que también admiten audio y video tendrán nuevas vulnerabilidades. Prepárate para ver a estos asistentes trucados de formas nuevas y creativas para revelar conductas indebidas y, tal vez, rarezas de personalidad desagradables o inapropiadas.

Artículo publicado originalmente en WIRED. Adaptado por Andrei Osornio.


Sissie Hsiao en el Google I/O 2024. Gemini 1.5 Pro
Gemini 1.5 Pro estará disponible para los suscriptores de Gemini Advanced en más de 150 países y más de 35 idiomas.