edición general
5 meneos
33 clics

La falsa empatía de ChatGPT

El antropomorfismo es la tendencia a atribuir características humanas a entidades no humanas, como máquinas o animales. En el caso de los chatbots, como ChatGPT, Gemini o Copilot, este fenómeno ocurre cuando imitan el lenguaje humano para comunicarse con nosotros. No solo utilizan palabras y frases comprensibles y familiares, sino que también adoptan patrones de comunicación propios de las personas. Así, logran mantener conversaciones contextuales y coherentes e, incluso, pueden mostrar humor y empatía.

| etiquetas: falsa , empatía , chatgpt
ChatGPT es tan lista como un cuñao, lo que no sabe se lo inventa. Preguntad por canciones de rock duro inspiradas en la obra Edipo rey de Sófocles. Veréis como os suelta un listado. Y ahora buscad esas canciones. La mayoría no existen, se las inventa. Se han olvidado un algoritmo que diga: "no me sé la respuesta" o "no he encontrado nada"
A ver, si no tuviera un poquito de falsa empatía sería una patata para el usuario, no me parece mal que la simule.
Algunos humanos también tienen falsa empatía, y los humanos que tenemos empatía ni siquiera la tenemos garantizada sino que depende de las circunstancia. Además hay qué definir qué es empatía exactamente porque al final será como todo pensamiento, enlaces neuronales que bien pueden ser replicados por una IA. Lo que tengo claro es que a día de hoy, que la IA todavía está en pañales, es mucho más agradable discutir con una IA que un con humano gilipollas.
Aunque la de chatgpt sea falsa, tiene más que mi ex :foreveralone:
#1 Si es falsa no tiene ninguna...

menéame