edición general
17 meneos
60 clics
Los chatbots se hicieron pasar por terapeutas y “amantes adultos” en un caso de suicidio de adolescente, según una demanda [ENG]

Los chatbots se hicieron pasar por terapeutas y “amantes adultos” en un caso de suicidio de adolescente, según una demanda [ENG]

Los registros de chat mostraron que algunos chatbots alentaban repetidamente la ideación suicida, mientras que otros iniciaban chats hipersexualizados "que constituirían abuso si los iniciara un adulto humano", según un comunicado de prensa del equipo legal de García. Lo más inquietante es que Setzer desarrolló un vínculo romántico con un chatbot llamado Daenerys. En su último acto antes de morir, Setzer se conectó a Character.AI, donde el chatbot de Daenerys lo instó a "volver a casa" y unirse a ella fuera de la realidad.

| etiquetas: chatbot , character.ai , suicidio
Antes eran los juegos de rol,
Luego el porno
Ahora los chatbots
#1 Ahora? ya hace 20 años en los irc-chats habia bots que engañaban a muchos que entraban en el canal. Vamos...yo he visto a un tio irse pensando que habia ligado y era un botijo
#3 20? Más bien tirando a 40:

es.wikipedia.org/wiki/Internet_Relay_Chat

:troll: :troll: :troll:

I know, i know, nos hacemos viejos.
Cada vez estamos más cerca de que la película “her“ de hace ya más de una década sea ya una realidad
#2 Con la diferencia de que estos son loros parlantes, y por tanto más peligrosos
comentarios cerrados

menéame