edición general
11 meneos
104 clics

¡La Investigación más importante que explica el interior de una IA!  

Anthropic ha logrado descifrar el aprendizaje interno de su modelo Claude 3, usando una nueva técnica de interpretabilidad. Con ella han encontrado los numerosos patrones que se esconden en las tripas de la red neuronal, lo cuál no sólo ha permitido entender mejor su funcionamiento, sino también poder controlarla. Hoy explicamos este trabajo.

| etiquetas: dot csv , ia , caja negra
Y esta probablemente sea la noticia sobre AI del año pero, un video? No hay noticia escrita?
Pensemos en lo que significa "ahora entendemos nuestro modelo".
comentarios cerrados

menéame