Tecnología, Internet y juegos
5 meneos
22 clics

Los chatbots suelen equivocarse, así que unos investigadores han tenido una idea: que sean supervisados por otros chatbots

Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot. Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas. Tras comprar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%. Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.

| etiquetas: chatbots , supervisados
Lo esperable es que las correcciones lleven a nuevas pero diferentes equivocaciones.
La culpa fue del chatchatbot
¿Quién vigila a los vigilantes?
Esto se parece cada vez más a los procesos del ADN en el núcleo celular
#2 Por eso que existe la teoría general de sistemas

en.wikipedia.org/wiki/Systems_theory
Las personas también nos equivocamos y nos supervisan otras personas
Y los chatbots que supervisen a los chatbots que supervisan a los chatbots... para cuando... :troll:
Una distopía anunciada, y ésta sí que podría ser porque los medios están, es que internet se llene de contenido producido por IAs. Entonces las nuevas IAs se entrenen en base a dicho contenido.

Entonces estaríamos en una realimentación de tonterías que progresivamente tendrían menos y menos sentido, llegando a un punto de inflexión cuando la IA sea incapaz de diferenciar una página con contenido bueno de otra inventada (generada por IA).

menéame