edición general
16 meneos
110 clics

El modelo Claude 3 Opus de Anthropic muestra destellos de razonamiento metacognitivo [EN]

¿Puede un modelo de lenguaje de IA volverse lo suficientemente consciente de sí mismo como para darse cuenta de cuándo se está evaluando? Una anécdota fascinante de las pruebas internas de Anthropic en su buque insignia Modelo Claude 3 Opus (publicado ayer) sugiere que esto puede ser posible y, de ser cierto, las implicaciones serían descabelladas. twitter.com/AISafetyMemes/status/1764894816226386004

| etiquetas: ia , claude 3 , anthropic , metacognición , agi
#5, te paso una de las mejores ponencias sobre el tema que he visto, además en castellano.

youtu.be/X4Vrx25H9BM?si=cp0t3LBqBcgNBJS3
Señalar que que diga que es consciente no significa que lo sea. Igual que a fecha de hoy la ciencia no ha encontrado la forma de demostrar que los demás son conscientes como tú aunque lo afirmen.
#4 ¿Existe alguna definición objetiva, a día de hoy, para lo que es la consciencia? Pregunto desde el desconocimiento
Me temo que hasta que no veamos a esta IA moderando MNM, esta afirmación es falsa.
#2 Muy hábil disimulando tu verdadera naturaleza :troll:
comentarios cerrados

menéame