La empresa china de IA DeepSeek, que ya fue noticia con un competidor de ChatGPT entrenado con 2 billones de tokens ingleses y chinos, ha anunciado el lanzamiento de DeepSeek Coder V2, un modelo de código de lenguaje de mezcla de expertos (MoE) de código abierto. Basado en DeepSeek-V2, un modelo MoE que debutó el mes pasado, DeepSeek Coder V2 destaca tanto en tareas de codificación como matemáticas. Es compatible con más de 300 lenguajes de programación y supera a los modelos de código cerrado más avanzados, como GPT-4 Turbo o Claude 3 Opus.
|
etiquetas: gpt-4 turbo , deepseek coder , china