Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot. Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas. Tras comprar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%. Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.
|
etiquetas: chatbots , supervisados
en.wikipedia.org/wiki/Systems_theory
Entonces estaríamos en una realimentación de tonterías que progresivamente tendrían menos y menos sentido, llegando a un punto de inflexión cuando la IA sea incapaz de diferenciar una página con contenido bueno de otra inventada (generada por IA).