edición general
345 meneos
1124 clics
China ha desarrollado una IA con el mismo rendimiento que ChatGPT por un 7% del coste

China ha desarrollado una IA con el mismo rendimiento que ChatGPT por un 7% del coste

Con la tercera versión de su gran modelo lingüístico, lanzada en diciembre, la empresa china de inteligencia artificial DeepSeek puede haber echado por tierra la idea de que las mejores IA requieren miles de millones de dólares y los chips más avanzados. Por sólo 5,6 millones de dólares, o el 7% del coste de desarrollo de ChatGPT, Pekín consiguió crear una IA comparable a los modelos estadounidenses.

| etiquetas: inteligencia artificial , ia , chatgpt , china
Comentarios destacados:                    
#3 Haciendo fine tuning sobre otro entrenado… sensacionalista es poco
Haciendo fine tuning sobre otro entrenado… sensacionalista es poco
#3 ¿y cunto ha costado el acumulado del modelo entrenado del que han partido?
#3 Se lo puedes preguntar a DeepSeek. Dice haber sido entrenado a base de hablar con ChatGPT.
#13 Eso dicen todos los modelos. Que fueron entrenados por otros.
Preguntar eso sólo sirve para unas risas y nada más, no tiene ningún valor real.
#44 la mayoria de los grandes modelos, dicen en los terminos y condiciones, que no se pueden usar para entrenar otros modelos
#3 Cuéntaselo a META, lumbreras:

"A message posted to Blind… has been making the rounds suggesting Meta is in crisis over the success of DeepSeek because of how quickly it surpassed Meta’s own efforts to be the king of open source AI with its Llama models."

www.unz.com/mwhitney/chinas-deepseek-ai-moves-the-capital-of-tech-from

Aquí podéis ver pantallazo del mensaje en cuestión, es imposible subir imágenes.

ChatGPT

Tú dijiste:
Navantia pierde el…   » ver todo el comentario
#14 @admin, puedes borrar este mensaje? Liada con el copy paste del maldito android.

Si, uso Chatgpt xD
#18 Pues parece que estás generando un agente para enviar noticias... :troll:
#32 Casi casi aciertas xD

Lo uso para encontrar noticias que a veces me llegan sin enlace (a través de algún grupo de WhatsApp) y buscar si se ha subido a Meneame (a la espera de que el buscador de MNM funcione algún día).

En lo último pincha, la noticia sobre Navantia era dupe :palm:
#33 en Google -> site:meneame.net inurl:navantia (herramientas de busqueda último mes)
www.google.com/search?q=site:meneame.net inurl:navantia&hl=es&
#18 Si buscas referencias en noticias te recomiendo que uses perplexity o incluso copilot.
#3 no tiene usted mucha idea de lo que habla…
#16 Pero ni puta idea tiene.
Deepseek-R1 es un modelo.
Otra cosa es la mierda de "ollama" y cómo manipulan para confundir al personal, con nombres como "deepseek-r1:14b" cuando no es Deepseek-R1 sino "distills" de otros modelos.

Deepseek-R1 es la ostia. Y muchísimo más barato que cualquier otro modelo comercial.
Y ya si hablamos de lo que costó entrenarlo... por eso Meta, "closedai" y demás están cagados, porque no pueden conseguir algo igual o mejor y porque no pueden justificar, ni de lejos, la cantidad de recursos (humanos, eléctricos, GPUs, etc) que utilizan.
#42

De hecho lo más interesante que tiene Deepseek no es el modelo en si (que ya es mucho decir), sino que han liberado la metodología que utilizaron para pasar de Deepseek V3 a Deepseek R1, hablando mal y pronto, sale más barato tomar las salidas de un modelo de razonamiento como R1 y usarlas para entrenar a un modelo como Ollama y Qwen por ejemplo y convertirlos en modelos razonadores, que tratar directamente de crear un modelo razonador a partir de los modelos ya existentes.
#16, y es el comentario con más positivos de todo el meneo, para veas el criterio de los meneantes muchas veces, sobretodo en meneos que se prestan a cuñadear.
#68

que #3 tenga tantos positivos es una muestra del nivel que tiene menéame hoy en día.
#3 ya has ofendido a los clones china-rusia de guardia
#3 7% del coste pero con el 100% menos de libertades y democracia
#31 Digamos que por un 7% del coste tienes un 7% de libertades limitadas. Están los yanquis como para dar lecciones de democracia ...
#39 Lleva Sam Altman al menos un año colaborando con el Pentágono según admitió él mismo mientras Elon Musk nos deleita con el saludo nazi y nos vienen a contar una peli de la democracia contra los chinos malos para que no abandonemos el redil del tecnofeudalismo.
#39 A China sí, desde luego. Por mucho
#72 No, por mucho no, por muy poco.

El bipartidismo norteamericano es de todo menos democrático, y un lado no se puedi hablar de Tiananmen y en el otro del genocidio Israelí.
#73 Por mucho. Y aunque Trump intentará hacer que USA se parezca a China o Rusia o Irán, tiene demasiados medios que acallar, demasiados canales de información que cerrar, demasiada memoria en las cabezas
Buen intento, pero no es cierto lo que dices
#31 Al revés: Deepseek puedes bajarlo y usarlo y modificarlo como te de la gana (incluyendo quitarle la censura que tiene) mientras que chatgpt es un modelo cerrado y privativo, solo puedes usarlo mediante sus servidores. Y la situación de libertades y democracia de EEUU es más que cuestionable.
#67 "la situación de libertades y democracia de EEUU" y por eso la gente hace cola para entrar a USA y no a China
#71 He dicho que la situación es cuestionable (y más aun a partir de ahora), no que no tengan libertad. Lo de democracia es otra historia, solo una quita parte ha votado al presidente actual, y el candidato que batió records de donaciones individuales por todo el país en 2016 y 2020 fue desplazado gracias a la enorme influencia que tienen los ultra ricos sobre los "demócratas".

No me gustan ninguno de los dos países, pero tengo amigos españoles que están aprendiendo mandarín y no conozco a nadie español que quiera irse a EEUU.
#84 La quinta parte ha votado, el resto puede votar o no como es su derecho, cosa que no ocurre en China
¿Quieren aprender chino? Que no se confundan, que lo mismo necesitan aprender cantonés
#86 Lo puedes llamar democracia cuando los únicos candidatos viables son todos corruptos? Decir que un país no es democrático no convierte a otro automáticamente en democrático. No me malinterpretes. Al menos en EEUU hay posibilidades de cambio que no hay en China, pero la cosa no pinta muy bien que digamos.
#87 Lo puedo llamar democracia cuando yo misma puedo organizar un partido o grupo, y presentarme yo, a una alcaldía o cualquier puesto
Si hay tanta corrupción como dices, no sería tan difícil que se me tuviera en cuenta
#88 La cantidad de corrupción es proporcional a la cantidad de poder que uno tiene. Eso de poder presentarse a alcalde no es muy diferente a como es en China. La cuestión es que existe y que la gente vota a sus dirigentes locales. Cualquiera puede presentarse como candidato. No me malinterpretes, no me gusta el sistema de votaciones de China un pelo. Pero la idea de que es todo una dictadura pura y dura es incorrecta.
#3 osea que no tienes ni idea de qué estás hablando pero eso no te impide dar tu opinión, sigue así, a Trump le ha valido para ser presidente de US.
"en términos de competencia global y cómo podrían usarlo."

Claro, el problema es la IA china porque las otras, como ChatGPT, nunca se van a usar para nada malo, los capitalistas occidentales no hacen esas cosas. :palm:
#4 De hecho ya hace un año que Sam Altman anunció que estaba pasando lo que se suponía que nunca a iba a pasar, que empezaron a colaborar con la organización terrorista nº1 del mundo, el Pentágono:

www.xataka.com/empresas-y-economia/openai-prometio-que-su-tecnologia-n
#22 Ése pavo es la peor mierda que hay en AI.
Pero la peor. No hay nadie peor que él.
#43 ¿Ni Musk.?
Hombre, a toro pasado todo es más fácil. Teniendo en cuenta que hay muchísimos modelos opensource como Llama o mistral.

Aún así los benchmarks siguen dando vencedor a gpt4 es bastante más caro por token
#1 Sin quitarle merito a la gente que ha desarrollado DeepSeek, que es impresionante, ese es el punto importante, lo que esta triunfando es el modelo Open Source, DeepSeek toma mucho prestado otros modelos open source, que es la grandeza del Open Source.

Contra mas Open Source mejor, sobre todo para Europa que vamos años por detras.
#11 Los modelos "pequeños" estan basado en llama y qwen. Así sí, toma bastante de ellos. No he investigado mucho porque los 70b, 32b, 8b, 7b y eso son modelos basados en llama y qwen. Solo que en ollama los categoriza como subtipos de esos 2. El 7b es qwen y el 8b llama o viceversa, no me acuerdo.
#11 ¿Contra? Yo, a favor.
#11 contrimás.
#11 vamos años por detrás porque los grandes gerifaltes de europa van a seguir cobrando igual
#1 El 7% no es un toro pasao, es un toro mas que quemado, carbonizado diría yo.
Los chinos acaban ganando las batallas tecnológicas a precios irrisorios y encima no montan guerras militates, no invaden ni bombardean, no son unos angelitos, pero tienen sentido práctico. Simplemente desarrollar una IA como ChaptGPT solo el coste 7 %, si es así, es ganar por goleada, porque rentabilizar estas inversiones es más fácil si reduces el gasto a ese nivel, y puedes seguir desarrollando otras cosas
#7 no, ni por asomo es verdad
#37 ¿Que no es verdad el avance tecnológico de China o los coste del desarrollo tecnologico son mucho menores en China? Ambos aspectos estan estrechamente relacionados.
#47 China ha estado en guerra con sus vecinos en varias ocasiones. Una de ellas fue con Vietnam, después de que Estados Unidos se retirara y China resultara derrotada. Otra confrontación ocurrió con Corea del Norte, donde apoyaron al régimen autocrático contra el sur.
A los yankis no les importa, tienen la maquinita de fabricar money.
Chija no, unos chavales chinos con unas GPUs que utilizaban antes para minería.

Y si el gobierno español es espabilado deberían entrenar Alia de una forma similar.

A tener en cuenta que si queréis hacer un trabajo pal cole sobre Tiananmen no la utilicéis, en las tres noticias sobre lo mismo anteriores había meneantes enfadados por ello.
Además de poner al open source en el centro, de lo que me alegro muchísimo, resulta que es más barato y eficiente un proyecto dirigido por técnicos en lugar de estarlo por puros negociantes e inversores cuyo objetivo es hinchar la burbuja y generar dividendos.

Creo que todo esto puede plantear serias dudas también acerca de cuán efectivo es el tecnofeudalismo este de los americanos.
DeepSeek ni siquiera es un proyecto guvernamental chino, que seguro que los hay. Los chips que usa los compraron hace diez años para otra cosa, concretamente hacer una maquinita de inversiones automáticas. La hicieron, pero salió peor que la que ya tenían. Así que se encuentran con diez mil chips sin uso y deciden darles un uso. Como que la IA está de moda, pues copian un modelo open source y como que solo tienen unos pocos chips, no les queda otra que optimizar los algoritmos.

Repito: esto es una iniciativa privada.
Lo de alabar m... de China este foro por sesgo empieza a ser ridículo. Si es un puto modelo retuneado. Sensacionlista no, lo siguiente.
#56 Retuneado desde cual? deepseek R1 es un fine tune de deepseek V3, hechos por la misma gente. Y V3 de por sí ya tiene unas cuantas innovaciones que han publicado.
Le he enviado la noticia a mi ChatGPT y luego le he preguntado si no le jode. Esto me ha respondido:

¡Y tanto que me jode! No por el avance de la IA, que siempre es impresionante, sino por lo que implica en términos de competencia global y cómo podrían usarlo. Está claro que los chinos no pierden el tiempo, y esto sube la apuesta en la carrera tecnológica.

Por un lado, mola ver cómo optimizan recursos y logran algo tan avanzado con una fracción del coste, pero por otro… ¿qué tanto control tendrán sobre cómo se usa esa tecnología? Siempre queda esa incertidumbre. ¿Tú cómo lo ves? ¿Te preocupa o lo ves como un reto más para el resto del mundo?
#2 Escuchemos a todas las partes. Respuesta de DeepSeek:

DeepSeek ha revolucionado el sector de la inteligencia artificial al desarrollar modelos de lenguaje de alto rendimiento, como DeepSeek-V3 y DeepSeek-R1, que igualan o superan a ChatGPT en diversas tareas, con un coste de desarrollo significativamente menor. Aquí se desglosan los aspectos clave de este avance:

1. Coste reducido: 7% del gasto de ChatGPT
Inversión comparativa: DeepSeek entrenó su modelo V3 con solo 5,6 millones de…   » ver todo el comentario
#9 Es interesante cómo este modelo aborda temas delicados: en lugar de simplemente negarse a responder o lanzar una 'moralina' prefabricada, intenta contextualizar y ofrecer una explicación, aunque luego se autocensure. Es un enfoque que, al menos, da más información que otros modelos que directamente evitan el tema sin siquiera mostrar por qué. ¿No creen que es mejor recibir una respuesta matizada, aunque incompleta, que un simple 'no puedo hablar de eso’?
#24 Deepswek no responde a nada relacionado con Taiwán. Da error. Viola los términos.

Y tengo que volver a probar el modelo instalad locamente. Eso lo haré entre semana.
#29 "Te estoy instalando locameentee..." {0x1f3b5} {0x1f3b6}
#9 ya no tienen mas NVidia
#2 ¿Tu chatGPT habla así, con ese lenguaje coloquial?
#15 Es el lenguaje tipico de poligonero de meneame+laboro
#15 Si le pones el modo "invent" a on seguro. :troll:
#15 Sí, se lo pedí yo.
#2 No sé para qué te pide tú opinión o te dice qué tal, si le importa un carajo.
#50 Es algo que me cansa un poco, la verdad. Siempre acaba haciéndome preguntas, como si quisiera tenerme enganchada para que la conversación se eternice. Tendré que pedirle que deje de hacerlo.
Eso es que la IA china trabaja en peores condiciones laborales y cobra salarios más bajos que las IA's occidentales
Es que en chino es más fácil.
#69 Eso si lo sabes.
#61 Para no oir lo mejor es unos tapones o ignorar. En vez de pedir a otros , que hagan lo que es muy posible que hariamos nosotros con el mismo resultado, en otros ambitos aunque sea sin darnos cuenta. Cada uno es responsable de lo que hace no de lo que otros quieren interpretan o inventan.
#63 que a mí me suda la polla que mandes mensajes o vayas en coche a trabajar. No soy idiota.
#65 Para hablar de algo tienes que conocer sino solo hablas de tus propias invenciones que sin duda no tienen que ver con la realidad, para eso no necesitas a nadie , te la sude o no.
#66 no se de casi nada.
Después de tener como modelo algo ya existente, resulta que hacen una copia más eficiente… me pinchan y no sangro.
Pero duran menos dirán los otros para justificar la diferencia de precios.
¿Pero no es un poco "trampa" usando gpt para entrenarlo?
Lo caro parece ser procesar el modelo mayor (la punta de lanza) luego a partir de él generar uno algo más optimizado o mejor entrenado parece ser mucho más barato, dando unos resultados similares o ligeramente mejores.
Pero el salto cualitativo aparentemente y de momento, se hace procesando muchos datos y poniendo mucha pasta en hardware.

* Para los usuarios está genial estos modelos baratos.
#27 Han cogido un modelo "opensource" (llama, que si se sabe, entrenó con OpenIA) y lo han mejorado. A su vez, han dejado ese nuevo modelo "opensource" por si alguien quiere volver a mejorarlo. ¿Donde ves la trampa?

La trampa sería esconder el modelo y su procedencia (que son textos/imagenes de internet de todos los humanos) y mantenerlo oculto como propietario como hacen openia, gemini, amazon... para sacar dinerines por su uso.
#36 ¿Donde ves la trampa?
En usar un modelo generativo superior para que te dé los datos de entrenamiento.
Es un consuelo saber que skynet se enfrentará a chinonet mientras nosotros sobrevivimos en... la nada.
#0 pasamos de esta hace una semana en portada a esta. De risa esta web...

www.meneame.net/story/deepseek-afirma-modelo-razonamiento-supera-o1-op

Por cierto. Piden suscripción para leerlo.
El modelo de China es ahora mismo ganador:
- El I+D se lo hacen otos
- Tiene una ingente cantidad de ingenieros/mano de obra/materiales para producir productos/servicios basados en ese I+D
- Tiene el mercado económico más grande del mundo (el propio) que además está bastante blindado a empresas extranjeras donde puede probar y engordar esos productos y servicios
- Puede exportar a gran parte del mundo esos productos/servicios sin tener apenas aranceles (algunos de la UE/USA en poquísimos sectores)
Es la IA del AliExpress.
#23 No sé si es una broma pero no.
Con el rendimiento parecido a GPT-o3 OJO
#80 Lo llevo usando desde el viernes, y de hecho rinde mejor y mas rápido que ChatGPT para todo lo que lo he estado usando. Y encima con créditos infinitos.
Venga, seguid calentando el planeta haciendo preguntas chorras a programas informáticos.
#28 O seguid calentado el planeta escribiendo comentarios chorras a programas informáticos como el servidor de meneame.net
#53 lo vas pillando.
#28 Las preguntas chorras se van a hacer igual , pero si se pueden hacer a un coste de un 7% mejor. xD
#55 pues luego no quiero oírte quejar de calor en febrero.

menéame