edición general
34 meneos
339 clics
¿Cómo le va realmente a DeepSeek R1 frente a los mejores modelos de razonamiento de OpenAI? [EN]

¿Cómo le va realmente a DeepSeek R1 frente a los mejores modelos de razonamiento de OpenAI? [EN]

Aunque DeepSeek puede remitirse a los resultados de las pruebas comparativas comunes y a la clasificación de Chatbot Arena para demostrar la competitividad de su modelo, no hay nada como los casos de uso directo para hacerse una idea de la utilidad de un nuevo modelo. Para ello, decidimos enfrentar el modelo R1 de DeepSeek a los modelos ChatGPT de OpenAI, al estilo de nuestros anteriores enfrentamientos entre ChatGPT y Google Bard/Gemini.

| etiquetas: deepseek , openai , comparación
Muy buen artículo.
Conclusión: Resultados muy parejos. cada cual con sus pequeñas fortalezas y errores, pero DeepSeek muy a la par que ChatGPT O1. Lo cual es un bombazo ya que tumba la idea de que hacen falta super chips de computación e inversiones locas para obtener los mismos resultados.
#1 pero no vale para hacer trabajos pal cole sobre lo malos que eran en la dinastía Ming!!!
#2 Eso fue un bulo propagado por Flash Gordon
#1 Es como ver como mi Opel Corsa de treinta años hace el mismo tiempo por vuelta en Monza que un Ferrari de Fórmula 1.

O los chinos son increíblemente listos o alguien ha hinchado Open AI hasta el absurdo metiendo más y más millones para que alguien, o varios, se lo lleve crudo.

O ambas cosas.

Por cierto, vendo Opel Corsa.
#3 Pues deberías pensar en vender el Ferrari. No es trigo limpio. :troll:
#3 ¿ Opel Corsa. de antes o después de Stellantis? :-D
#5 Touche!!!
A mí en preguntas "complicadas" de electrónica básica deepseek me da mejores resultados. Y sobre todo no insiste en que no se equivoca cuando sí lo hace como por ejemplo chapgpt.

menéame