edición general
205 meneos
1313 clics
DeepSeek Coder, de China, se convierte en el primer modelo de codificación de código abierto que vence a GPT-4 Turbo  (ENG)

DeepSeek Coder, de China, se convierte en el primer modelo de codificación de código abierto que vence a GPT-4 Turbo (ENG)

La empresa china de IA DeepSeek, que ya fue noticia con un competidor de ChatGPT entrenado con 2 billones de tokens ingleses y chinos, ha anunciado el lanzamiento de DeepSeek Coder V2, un modelo de código de lenguaje de mezcla de expertos (MoE) de código abierto. Basado en DeepSeek-V2, un modelo MoE que debutó el mes pasado, DeepSeek Coder V2 destaca tanto en tareas de codificación como matemáticas. Es compatible con más de 300 lenguajes de programación y supera a los modelos de código cerrado más avanzados, como GPT-4 Turbo o Claude 3 Opus.

| etiquetas: gpt-4 turbo , deepseek coder , china

menéame