El nuevo modelo de IA procedente de China que el lunes hizo tambalear a los gigantes de la Inteligencia Artificial hasta ahora conocida -Microsoft, Meta, Alphabet, el fabricante de chips, Nvidia…- ha abierto un nuevo escenario. DeepSeek afectará a todas las fases de la cadena, desde quien diseña el sistema hasta quien le suministra la energía para poder ejecutarlo. El nuevo marco que plantea destaca no sólo por ser un código abierto sino también por ser más eficiente, requerir menos chips y un menor consumo de energía.
|
etiquetas: deepseek , centro de datos , ia , ai , inteligencia
Aquí Zuckerberg por cierto
Si nos guiásemos por esa paradoja no tendríamos vehículos, ni electrodomésticos, ni los mínimos de confort universales que tenemos.
El camino es mejorar la producción y la eficiencia energética, no impedir el uso de la energía.
De hecho China también lleva la delantera en eso, habiendo alcanzado ya los objetivos de descarbonización previstos para 2030.
Exagerando mucho la idea, sólo para que se entienda, la IA puede reescribir el Quijote pero falla… » ver todo el comentario
El objetivo de la ia no es substituir personas.
La AGI la veo imposible con el paradigma actual, por mucho que no paren de anunciarla como si pudiese darse por hecha. Sencillamente porque la IA no es de fiar. En tareas… » ver todo el comentario
Di las cifras que quieras yo trabajo… » ver todo el comentario
Pero a la que a las IA les pides un sencillo algoritmo que haga algo tan mínimamente complejo como DOS tareas en vez de una, ya fallan como escopetas de feria. Y si… » ver todo el comentario
Lo ideal es que fuera GPL, pero bueno. A ver si alguien hace una innovacion significativa sobre ese código y la licencia como GPL...
No obstante, a ver si ahora sólo va a poder trolear Musk. Los demás también tenemos derecho.
CC #2 #3 #9
Me encantaría ver a esa gente viviendo en alguna alcantarilla, pero la realidad es que no va a ser así.
CC #11
Broadcom, AMD, ASML... caídas de dos cifras porcentuales en fabricantes de hardware con capitalizaciones del orden de los mil millones. Y lo mismo sucedió a varias de las grandes energéticas estadounidenses.
Y en un solo día. Es un hostión histórico.
La cuestión es que la hostia del lunes se la llevó igual, perdiendo más de un 11% en un día. Al miedo no le importa en qué lado del Atlántico estás.
Ahora Microsoft, Google, META etc son malas porque a ti te dé la gana y van a desaparecer.
Y por cierto deja de insultar y llamar… » ver todo el comentario
A quién sí podría perjudicar es a OpenAI que tendrá más competencia, pero a Nvidia le beneficia.
A ver qué dice Powell hoy, al final eso es lo más importante para la bolsa.
Justo cuando lo acababan de decidir, van a tener que replantearse de arriba a abajo cómo escalar el hardware para IA. No es sólo ”un sustito”, ni mucho menos es poca cosa.
Sí puede ser que al final los fabricantes de hardware terminen ganando más, como dices. Pero de momento los planes se les han ido a tomar por culo.
Amazon: finance.yahoo.com/quote/AMZN/
Meta: finance.yahoo.com/quote/META/
Para colmo te haces trampas al solitario poniendo cotizaciones de empresas de software, cuando el hostión se lo llevaron los fabricantes de hardware: Nvidia, Broadcom, AMD, ASML.. caídas de dos puntos porcentuales en empresas con capitalizaciones del orden de mil millones.
Vamos, que sólo has puesto tonterías. Y está claro que mientes a sabiendas, porque del Nasdaq solo has puesto una captura y no has enlazado la gráfica para poder comprobar que efectivamente el lunes se llevó un hostión histórico.
La bolsa cae y sube constantemente, que más da la ostia del lunes si no vendes y al final de semana estas en el mismo sitio? Solo tienes que mirar la tendencia con la que está subiendo de nuevo.
Por mucho que os joda la realidad y los idealismos siempren van a estar disasociados.
Pero no sé dónde ves tú eso de que el Nasdaq está en el mismo sitio. La hostia es muy evidente, y ni de coña se ha recuperado. Negar la realidad palpable es muy tonto.
La bolsa sube y baja constantemente, pero que el Nasdaq caiga un 3% en un día no sucede todos los días, ni todos los años, ni todas las décadas. Es más, no había sucedido nunca.
Con que argumentes tu aseveración es más que suficiente.
No obstante, como digo más arriba, esto les obliga a ir a remolque.
Y cuidado, que la capacidad de China de seguir tan de cerca los movimientos estratégicos de EEUU, en este caso en el aspecto tecnológico, nos da una pista de la capacidad de China de seguir (o incluso superar) a EEUU en capacidades armamentísticas.
(Por conectar 100 % a lo que en realidad me refiero en #1)
PD: No voy asumir que no lo entiendes, así nos ahorramos explicaciones.
El pinchazo de Nvidia se recuperará también poco a poco. Guste o no la IA eficiente no se entiende sin Nvidia.
Los mercados se manipulan con un chasquido de dedos, y es más que obvio que hay una burbuja bien grande, pero a quién piense que se han llevado un hostion los de la foto en estos días ya os digo que no pueden estar más… » ver todo el comentario
La causa es lo relevante, y sus consecuencias son muy muy muy grandes.
El artículo es igualmente sin jugo alguno, expertos diciendo obviedades, ya que esto simplemente es una carrera de fondo.
Esto no se trata de llegar a una cima y no poder subir más. No hay limite, y si tienes una forma más eficiente de subir montañas vas a querer ir a una más alta.
Cuando se descubrió el transistor, no se quiso hacer lo mismo que se hacía con valvulas del vacío pero 1000x veces más eficiente, si no hicieron circuitos aún más potentes que consumían más energía.
Se llama Paradoja de Jevons:
es.wikipedia.org/wiki/Paradoja_de_Jevons
Los precios van a bajar sin duda. No todo el mundo necesita generar código.
Antes de DeepSeek estaba claro que solo podían usar la última generación de GPUs de Nvidia, ahora hay modelos igual de potentes que no lo necesitan. El juego ha cambiado y los dueños de esos centros de datos van a tener que repensar lo que quieren hacer. O simplemente seguir con los mismos planes que tenían porque los nuevos modelos funcionarán igualmente en esas super caras GPU aunque no usen su chip de IA
China no puede comprar las nuevas GPUs de Nvidia y no creo que dediquen tiempo a ajustar su modelo para usarlo si lo hubiera, pero como es un modelo OpenSource quizá alguien lo haga.
Mas bien el sistema NO necesita usarlo. Pero muy probablemente se pueda usar con mucha facilidad, no hay ningún problema técnico para hacerlo así.
o creo que dediquen tiempo a ajustar su modelo para usarlo si lo hubiera
No creo que necesite ningún "ajuste" que suponga dificultad, bastará un "driver" que implemente una API sobre la tarjeta o algo similar.
Sí puede, y lo ha hecho. Deepseek está entrenada con chips de Nvidia.
ChatGPT4 costó 100 millones www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-i
Eso es una reducción del 94% en los costes del entrenamiento.
#49 dicen que solo han usado el modelo H800, que es una gráfica de marzo de 2023 y que no tiene los nuevos chips de IA
#48 claro, no podemos pretender que todo el modelo funcione en un solo PC, pero el coste es muy reducido si lo comparamos con otros.
Por eso las noticias preguntándose cómo los consiguieron, porque los h800 sí que los podían comprar.
Que sí, que comparado con ChatGPT es bastante menos. Pero no me parece comparable.
¿Qué hay que cambiar exactamente?
Por otro lado, máquinas que sí entrenan modelos tochos, como la MareNostrum de Barcelona, tampoco hay que cambiarlas. La máquina está perfecta, sencillamente ahora podrá entrenar… » ver todo el comentario
Los periodistas por otros que sepan de lo que hablan.
www.elmundo.es/economia/empresas/2025/01/20/678a2a0ffc6c83a8178b4570.h
No debería obligar a rediseñar nada. El diseño actual contempla una capacidad mucho menor que la necesaria, pero no es necesario implantar el 100% de los recursos ni consumir el 100% de la energía prevista. Eso no implica ningún rediseño.
Recordemos también que OpenAi nace en 2015, que 10 años después otra empresa ya sobre unas bases bien fundamentadas haya podido lograr lo que en principio parece un buen avance, no debería sorprendernos tanto.
Habrá que esperar unas semanas a que se calmen.
"Solo" han conseguido generar un modelo TOP TOP al nivel de O1 de forma más barata. La diferencia es que lo han liberado y han creado otros modelos "destilados" similares a los que ya había.
Dejarse de flipar tanto que esto no va a ser el revulsivo que llevará la IA a los equipos de sobremesa.
#66 Los modelos de 1.5, 7 u 8 billones de parámetro son modelos tuneados (Destilados) de "LlaMa" o Qwen ... son modelos "Densos" y su rendimiento y tiempo de ejecución está ligado a la cantidad de parámetros.
Esto solo cambia por que hay un competidor que hace coches mejor... pero no hace coches mejores
youtu.be/X2o779o5PoE?si=cNHJd2AlEUv2lUcu
Algún erudito que sepa algo al respecto? O le pregunto a chatgtp?
DeepSeek es más pequeño, pero eso es a base de caparlo por unos cuantos sitios. Lo que hace es segmentar la respuesta entre diversos LLM especializados por temas. Si se requiere tocar múltiples temas, la respuesta se retrasará. Hay cosas que están fuera (intenta preguntarle qué hora es).
El entrenamiento sigue necesitando modelos muy grandes.
Esto no es una crítica a DeepSeek, me encanta DeepSeek, es lo mejor ahora mismo. Pero también hay que explicar como lo han hecho.
La repuesta va a ser copiarlo para hacerlo mucho más grande. La competencia actual es por capacidades.