10 meneos
115 clics
El nuevo modelo de lenguaje de IA de billones de parámetros de Google es casi 6 veces más grande que GPT-3 (ENG)
Un trío de investigadores del equipo de Google Brain reveló recientemente la próxima gran novedad en los modelos de lenguaje de IA: un enorme sistema transformador de un billón de parámetros. El siguiente modelo más grande que existe, hasta donde sabemos, es el GPT-3 de OpenAI, que utiliza unos miserables 175 mil millones de parámetros.
|
Click para ver los comentarios