edición general

encontrados: 1, tiempo total: 0.007 segundos rss2
204 meneos
1304 clics
DeepSeek Coder, de China, se convierte en el primer modelo de codificación de código abierto que vence a GPT-4 Turbo  (ENG)

DeepSeek Coder, de China, se convierte en el primer modelo de codificación de código abierto que vence a GPT-4 Turbo (ENG)

La empresa china de IA DeepSeek, que ya fue noticia con un competidor de ChatGPT entrenado con 2 billones de tokens ingleses y chinos, ha anunciado el lanzamiento de DeepSeek Coder V2, un modelo de código de lenguaje de mezcla de expertos (MoE) de código abierto. Basado en DeepSeek-V2, un modelo MoE que debutó el mes pasado, DeepSeek Coder V2 destaca tanto en tareas de codificación como matemáticas. Es compatible con más de 300 lenguajes de programación y supera a los modelos de código cerrado más avanzados, como GPT-4 Turbo o Claude 3 Opus.

menéame