Mixtral-8x7B, bajo la licencia Apache 2.0, representa un logro notable en la misión de Mistral AI de ofrecer modelos abiertos de primera línea a la comunidad de desarrolladores. Este modelo destaca por su rendimiento en la generación de código y maneja con soltura contextos de hasta 32,000 tokens en varios idiomas, incluyendo inglés, francés, italiano, alemán y español. Además, muestra un desempeño sobresaliente en benchmarks estándar, igualando o superando a GPT3.5.
|
etiquetas: mixtral , apache 2.0 , open source , inteligencia artificial , chatgpt