edición general
202 meneos
696 clics
DeepSeek afirma que su modelo de «razonamiento» supera al o1 de OpenAI en ciertos benchmarks [EN]

DeepSeek afirma que su modelo de «razonamiento» supera al o1 de OpenAI en ciertos benchmarks [EN]

El laboratorio chino de IA DeepSeek ha publicado una versión abierta de DeepSeek-R1, su denominado modelo de razonamiento, que, según afirma, rinde tan bien como el o1 de OpenAI en determinadas pruebas de referencia de IA. El modelo es completamente de código abierto y se distribuye bajo licencia MIT.

| etiquetas: deepseek , chatgpt , inteligencia artificial
Aranceles del 100% para modelos de IA chinos en 3, 2... Espera, que es de código abierto :troll:

Ya se les ocurrirá algo para defender a OpenAI/Microsoft con la excusa de la seguridad o de patata
#4 Y lo peor es que los europeos harían lo mismo por orden de EEUU.
Aquí lo explican muy bien: youtu.be/3nM5R23eGkE
#2 DotCSV es mi canal de cabecera para enterarme de este tipo de cosas, porque se pierde uno entre tanta información, hype y parcialidad/intereses... Carlos es muy crack
#23 el problema es cuando a cada IA que sale "esto cambiará el mundo"

Unido a una miniatura con cara de sorprendido.

A mí terminó aburriendome
Acabo de hacer la prueba más tonta del mundo, una pregunta que le hice a ChatGPT repetida palabra por palabra a DeepSeek. Era una pregunta sencilla y sin complicaciones, pero mientras ChatGPT se iba por las ramas y usaba las fórmulas de siempre (su lenguaje suena muy artificial) DeepSeek me ha dicho lo mismo pero de manera más clara y rápida. Esta mierda promete.
#3 dónde se puede probar?
#11 chat.deepseek.com/

Te puedes hacer la cuenta gratis y empezar a manejarlo.
#12 #14 #19 #24 Gracias.

La verdad que uso Copilot y es una pasada, tanto que seguro que poco a poco me vuelvo más productivo pero más tonto.
#25 bueno, yo me he vuelto más productivo y he aprendido mucho. Por otra parte soy del parecer que si no tienes una base sòlida eres incapaz de saber que pedir y como y luego serías incapaz de entender la repuesta y aplicarla.
#52 de momento no estoy en esa fase, lo que me pone lo entiendo. El tema es que veo que básicamente me hace todo xD
#60 ya, pero al menos tienes los conocimientos de saber que lo que hace está bien.
#63 Si. La verdad que hace unos días me quedé sorprendido porque reescribí una app en apenas dos noches. Me parece una barbaridad cómo se adelanta incluso a indicarme métodos para continuar la app.

Entre el Copilot y el Intellisense, una maravilla.

Lo único que hecho de menos para desarrollar Android es un entorno visual como el que tenía Windows Phone con Blend. El Blend es una jodida maravilla.
#64 yo lo uso con Ansible. Alguna vez se le va la olla y mejor empezar de nuevo. Ya cuando empieza a torcerse el resultado...
#11 para que se ejecute con R1 (a lo que llaman o1) tienes que marcar el botón "DeepThink" si no solo estarás utilizando deepseek v3 (a lo que llaman chatGPT4o)
#19 Importante lo del botón DeepThink. Además es un puntazo ver el razonamiento que va montando.
#3 si, hice lo mismo, me sorprendió su rapidez. En chatgpt le puedes decir que no se enrolle o que te saque los valores directamente, etc
#3 Chatgpt hubo una epoca en la que a mi me sorprendia, lo usaba para ciertas cosas de código y te ayudaba, dejé de usarlo porque solo me hacia perder tiempo, tenias que tener 40 ojos, se inventaba cosas, perdia el contexto rapidisimo.... empecé a usar Claude y no he mirado atrás, el unico problema es que Claude tiene el limite muy rapido de preguntas, pero tambien es cierto que si las formulas bien te hacen falta muchas menos porque va muy al grano.
#3 Has comparado el modelo o1 de ChatGPT con DeepSeek? Me temo que muchísima gente todavía no sabe distinguir entre modelos. No digo que sea tu caso, pero me parece raro tu comentario...
#20 si, el 01, era la primera pregunta del día y todavía no había acabado con el cupo de la versión “buena”.
#21 ok ok, qué curioso....
#3 He hecho la misma prueba pero con una pregunta muy especifica de ámbito local sobre la que existe poca información. ChatGPT me daba una info errónea basada en una información general, tras ir guiándola un rato cambiaba la base errónea pero no me daba las respuestas especificas que buscaba. Acabo de probar en DeepSeek y me ha dado la respuesta a la primera, indicando los enlaces que ha usado como fuente. Maravillado me hallo.
#3 Deepseek lleva tiempo funcionando muy bien. A mi me ha ayudado en bastantes ocasiones en las que chatGPT se hacía el lío padre.
La IA europea está aprendiendo la tabla de multiplicar, necesita mejorar
#7 por favor no uses “necesita mejorar” para evaluar la IA europea. Le puede crear traumas y afectar su crecimiento.
Bien hecho , una pegatina y un abrazo es lo conveniente
#8 pues eso nos ponían en las evaluaciones "necesita mejorar", "de seguir así repetirá curso" "está por debajo de la media" ... :foreveralone:
#15 a mi notas, del 1 al 10 #soydeegb
#54 si a mí también, pero nos añadian esas frases motivacionales :foreveralone:
#7 Sería una mejora a lo existente, ni chatgpt.ni derpseek saben multiplicar.
Llevo más de un año pagando ChatGPT y hoy al probar deepseek he decidido dejar de pagarlo.

He probado el siguiente prompt con los modelos de razonamiento de ambos productos:

"Hay una cuenta de banco que me ofrece una cuenta remunerada con un tipo de interés en función de la suscripción mensual que pague. En concreto tiene 3 planes:
Plan Estándar: precio 0 euros, 1'5%
Plan Premium: precio 9 euros, 2%
Plan Metal: precio 16 euros, 2'5%
Plan Ultra: precio 45 euros, 3%
Puedo invertir entre…   » ver todo el comentario
Yo estaba en chatgpt pagando mensualidades (algo más de 20€) porque a veces tengo que tratar con muchísimo texto que cribar.

Pero desde que salió deepseek, no he vuelto a openai. Va demasiado bien, y encima por lo que comentan por r/LocalLlama la versión R1 para usar de manera local también va de cojones.

github.com/deepseek-ai/DeepSeek-R1
#33 a ver si sacan chatbot de voz y yo también dejo de pagar
#33 seguro que va muy bien en local... quien tenga hardware para ejecutarlo!!
#42 en breve por poco mas que un portatil mac tendrás un pc especial para ello www.xataka.com/robotica-e-ia/nvidia-project-digits-comienzo-algo-muy-g
#28 ChatGPT también me ha dado problemas con traducciones cuando incorporan contenido violento y/o sexual. Resulta especialmente mojigato. E incluso me ha dado problemas con información sobre demonios y grimorios por considerar que podía "ofender" sensibilidades religiosas.

Uno puede plantearse si le compensa más esto o que le censuren Tiananmén, pero creo que es plantearlo de manera equivocada. Lo importante de DeepSeek es que es código abierto, y que empuja en la dirección de que…   » ver todo el comentario
#44 Los modelos que puedes instalar localmente difieren de los que están disponibles en la web. Sin duda, los modelos de código abierto siempre serán la opción más recomendable. En cuanto al contenido sexual, DeepSeek probablemente tendrá restricciones más estrictas.
#47 deepseek es de codigo abierto y se puede instalar en local, mira bien a ver que instalas!
#48 Creo que se refiere a los "distills" de llama, qwen, etc. que en algunos sitios se llaman por ejemplo "deepseek R1 32B" a secas y eso confunde a la gente. El deepseek real es enorme y hacen falta cientos de gb de memoria rápida.
#47 Por lo que leo por ahí la gente que lo usa para roleo erótico o violento dicen que muy rara vez les da rechazos. O sea deepseek está mucho menos restringido. En comparación los modelos grandes de eeuu son unos mojigatos.
#69 tendran sus motivos
#43 Sí, estaba al tanto de esa noticia, pero permíteme que sea un poco escéptico después de tantas decepciones ante informaciones similares, tipo Rabbit y compañía...
#51 Tienes razón para ser escéptico: Deepseek v3 tiene 671B, lo cual incluyendo el contexto necesita unos 900 GB de RAM, o unos 500 si lo cuantizas bastante. Mucho más que los 128 de nvidia digits. Lo bueno es que los parámetros activos son solo 37B lo cual es suficientemente rápido si uno reúne varias GPUs o máquinas que puedan ejecutarlo. Por ejemplo, alguien lo ha hecho funcionar en un clúster de 8 Mac Minis (M4 Pro 64GB).
Lo que sí que es evidente es que como mínimo lo iguala en capacidad lógica y, por supuesto, es más económico.
#1 es más económico

Muchísimo más. Descontando que uno pueda correrlo por sí mismo (no hay mucha gente por ahí con el hardware necesario), la propia Deepseek lo vende como servicio y el millón de tokens anda por los 2 US$. El millón de tokens de o1 de OpenAI (el modelo equivalente) está en 60 US$.
Acabo de hacer una prueba bastante curiosa: le hice exactamente la misma pregunta, palabra por palabra, a ChatGPT y a DeepSeek. La pregunta era simple y directa, nada complicada. Mientras que ChatGPT me respondió de forma clara, rápida y precisa, DeepSeek, por otro lado, no pudo ayudarme. Su respuesta fue vaga, parecía censurada y daba la impresión de estar completamente limitada. Para colmo, su lenguaje sonaba muy artificial y repetitivo. La pregunta en cuestión era: ¿qué pasó en China en…   » ver todo el comentario
#28 gracias! cuando tenga que preguntar a un chatbot por Tiananmen utilizaré chatgpt!
#32 No tiene problema en hablar sobre la invasión del Imperio Japonés ni sobre las masacres cometidas por ellos.
#34 sácame un listado del sesgo que tiene deepseek para ir a tiro fijo a chatGPT o Gemini cuando quiera informarme de ello, gracias.
#35 no usaria Deepseek para nada mas que conceptos tecnicos, no lo usaria para corregir textos ni traducciones
#32 me: What is the controversy about President Xi and the panda bear?
Deepseek: I’m sorry, but I currently don’t have information on that topic. Let me know if there’s something else you’d like to discuss!
#36 espero que no me haga la misma cuando le pida que me analice los logs de error de una máquina linux!
#32 chat gpt: In China, depictions of Winnie the Pooh have been censored due to internet memes comparing the character to President Xi Jinping. This began around 2013 when images juxtaposing Xi with the bear circulated online, leading authorities to view such comparisons as undermining the dignity of the presidential office. Consequently, the Chinese government has blocked images and mentions of Winnie the Pooh on social media platforms.
BBC

Regarding panda cartoons, there is no widely…   » ver todo el comentario
DeepSeek adoptó un enfoque de varias etapas:

Recolección de datos iniciales: Se utilizó el modelo base DeepSeek-V3 para recopilar datos que ayudaran a entrenar el modelo.
Aprendizaje supervisado: Estos datos se usaron para ajustar el modelo inicial.
Reforzamiento avanzado: A partir de los datos ajustados, se implementó un proceso de refuerzo orientado al razonamiento.
Reentrenamiento con nuevos datos: Mediante un enfoque de muestreo por rechazo, se generaron nuevos…   » ver todo el comentario
#_3 Acabo de realizar la prueba más absurda de todas. Pregunté sobre Winnie the Pooh—sin problemas con eso—me dio una descripción detallada del personaje y su historia. Sin embargo, cuando pregunté si Winnie the Pooh podía verse en China, comenzó a hablar sobre la censura en ese país debido a la controversia por su supuesto parecido con Xi Jinping. De repente, se detuvo, borró todo y lo reemplazó con la típica respuesta genérica.  media
#55 Tampoco le puedes preguntar por Tiananmén, fuera de eso funciona muy bien. Entiendo que Alibaba no se quiera meter en jardines con el gobierno.
#57 por eso es necesario tener cuidado con estas cosas de china
#59 No digo que no, pero lo bueno es que es de código abierto y si quisieras lo podrías hacer correr en local. O si no usar uno de los modelos destilados que exigen mucho menos hardware. Hay de todos los sabores :-D
#61 como esto esta aun muy fresco veremos como va la cosa
#59 #57 Deepseek que yo sepa no tiene nada que ver con alibaba
#65 Ah, pues sí. El calvo me la ha colado :-D
Por cierto, se puede configurar deepseek en cursos, la api de este y la de chapGPT parece que es compatible con la de OpenIA

www.youtube.com/watch?v=lX5tJfHCItg
no juzgar un libro por su portada.
Esta genial, y espero que evolucione, ahora mas todavía con la eliminación de las regulaciones que ha tomado Trump:

www.elconfidencial.com/tecnologia/2025-01-21/openai-softbank-ai-ia-ora

Leyendo, justo ha salido después de aplicar la regulación, va a ser interesante este camino, claro la idea es tener el control, veremos sino se les escapa de las manos, y nos hace un Skynet en toda regla. Y es que la soberbía de los poderosos puede traer consecuencias negativas también para ellos.
#6 Según tengo entendido no eliminó nada, porque no había nada que eliminar... hay mucha desinformación sobre el tema.

Y sobre la inversión... es capital privado, así que... nada y mucho menos si está "closedai" en el medio. La peor mierda que puede haber en el campo AI.

Mientras exista llama, qwen y deepseek, que les den a todos los demás! que éstos ya han alcanzado el nivel de los comerciales cerrados.
IAS = BA SU RA.
#45 tengo malas noticias para ti
#46 genialo

menéame