Noticias de ciencia y lo que la rodea
244 meneos
553 clics
Un algoritmo chino podría aumentar el rendimiento de la GPU de Nvidia hasta 800 veces para aplicaciones científicas avanzadas (EN)

Un algoritmo chino podría aumentar el rendimiento de la GPU de Nvidia hasta 800 veces para aplicaciones científicas avanzadas (EN)

Investigadores de la Universidad Estatal de Moscú-BIT de Shenzhen, una colaboración entre la Universidad Estatal de Moscú Lomonosov y el Instituto de Tecnología de Pekín, han desarrollado un nuevo algoritmo computacional que puede mejorar significativamente la eficiencia de la peridinámica (PD), una teoría no local utilizada para modelar fracturas y daños materiales. El nuevo método aumenta el rendimiento hasta 800 veces, mejorando drásticamente la velocidad de las simulaciones de materiales a gran escala.

| etiquetas: china , nvidia , algoritmo
103 141 6 K 200
103 141 6 K 200
Comentarios destacados:              
#5 Una puntualización para los que no leen la noticia, la mayor parte de las LLM y otras "IA"s están limitadas por el ancho de banda de la memoria, no la capacidad de computo
Esto es para simulaciones numéricas de fractura de los materiales y similares
Habrá que prohibir el uso de ese algoritmo ruso-chino.
#1 y aranceles, muchos aranceles.
#8 Aranceles a los bits ya !!!! :-D
#1 #8 seguro que ese algoritmo chino 800 veces más rápido no se le ha ocurrido a ningún americano o de las cientos de nacionalidades que pululan por silicon valley

Los chinos son más listos que los malvados capitalistas yankees, y además son comunistas (o así es el partido único que gobierna desde hace.........años)))
#18 No falla ... enero de 2025
#24 ...dijo la cuenta clon de marzo 2024 xD xD xD

Por cierto, épico bulo que tratan de colar los clones china-rusia de guardia. Los mismos que trataron de colar que DeepSeek había costado 6 millones.
#28 "dijo la cuenta clon de marzo 2024"
Cuenta clon dice el papanatas...
Esta cuenta me la cree despues de que cierto admin me metiera un perma-ban en la anterior, por llamarle cinico.
Llevo por meneame desde 2012. Por esos entonces tu todavia te cagabas encima... aunque no asumiria que hayas dejado de hacerlo.

Ya te lo eh contado varias veces, pero veo que tu Alzheimer avanza con fuerza...
#18 En EEUU gobierna desde siempre el partido capitalista A o el partido capitalista B y viajan a pasos agigantados hacia la edad media.
#25 y viajan a pasos agigantados hacia la edad media.

xD xD xD xD
#18 Mira lo que han hecho los pérfidos chinos con las H800 de nvidia y puedes preguntarte lo mismo, por qué no se le ocurrió hacer lo mismo a ningún ser de luz capitalista de Silicon Valley.
#52 porque seguramente la noticia esté tergiversada o sea sensacionalista.
#53 Es el único consuelo que les queda a algunos, negar la realidad de unos hechos que han sido recogidos, de igual manera, por distintos medios y ha sido incluso reconocido el principal CEO de la competencia, Sam Altman.
#54 no me voy a meter en quién la tiene más larga

Superar la capacidad tecnológica de empresas como Nvidia, Microsoft, Apple, Meta o Alphabet es más que complicado. Y muchas más pequeñas y no tan conocidas

Los chinos lo tienen complicado y algunos estáis deseando que lo de los americanos sea todo mentira, como un mal sueño xD
#55 Aquí el único que ha puesto en duda las informaciones has sido tú, yo me he limitado a decirte lo que no quieres ver.
Que descanses ahora, si puedes xD xD xD
#56 la noticia ya empieza con un "podría".

Malo.
#57 Para mi es una buena noticia que cabe además dentro de la posibilidades viendo lo que han conseguido con los H800 y un lenguaje de bajo nivel.
#60 para mí no es mala noticia, es un "podría"

Lo que odio es que por aquí haya gente que se lo tome como una competición entre chinos y americanos que pierden los americanos
#61 No sé si la estarán perdiendo los americanos pero el discurso de decir que es necesario más potencia y más inversión para desarrollar mejores IAs se las ha desmontado los chinos, si no basta con mirar lo que ha pasado con el valor de nvidia en los mercados.
#62 no les han desmontado nada porque los chinos de deepseek están utilizando la tecnología americana

Lo dicen todos los que saben del tema.

Nvidia tiene un per altísimo y tarde o temprano iba a caer en bolsa
#63 Sí les han desmontado, sí, la idea que vendian a los inversores de que hay que gastar ingentes cantidades de dinero en hacer una IA competitiva, y lo mejor de todo es que lo han comseguido con las H800 "capadas".
#67 sé que por aquí gustan mucho las noticias sensacionalistas "David contra a Goliat" China con pocos medios EEUU con muchos y gana China que son más listos pero yo no me lo termino de creer, fíjate.

Para empezar los americanos tienen acceso, vía chequera, a los cerebritos más competentes del mundo, lo que no ocurre en China.

Y así es, en Silicon Valley y muchos otros sitios y universidades de USA
#69 Nadie duda que ha sido occidente y la codicia de sus empresas quienes "engordaron" a China, en aquellos días, cuando se deslocalizaban las empresas y los trabajadores nos ibamos al paro, nos vendian lo buena que era globalización. Hoy que las empresas temen competir contra China porque no solo les ha igualado, si no superado y a un menor precio es cuando nos venden el proteccionismo y los aranceles.
Podemos creer o no creer, y seguir gastando tiempo y dinero en desacreditar todo lo chino... ellos mientras siguen trabajando.
Pd. Sabes cuál es el país del mundo con más patentes.
#70 y quien ha negado la posibilidad de crecer a China??? Además se han hartado de copiar patentes y productos occidentales.

El proteccionismo puede tener sentido, sin duda, es defendible cuando tu competidor tiene sueldos muy distintos y una moneda infravalorada, siendo el dolar la mayor moneda de reserva mundial

Además es obvio que algunas industrias en China han recibido subvenciones masivas
#71 "y quien ha negado la posibilidad de crecer a China???"
Lo preguntas ahora ahora despues de las H100 de Nvidia o a las empresas de litografía de Paises Bajos.
"Además es obvio que algunas industrias en China han recibido subvenciones masivas"
Claro porque la UE no lleva años inyectando dinero público a la industria del automovil a través de sus "políticas de estimulo".
La IRA en EE.UU. venía a ser lo mismo, 400.000 millones de dolares de dinero que ponía el Estado para estimular ciertos sectores de su economía.
Pero intervencionismo es lo que hacen los chinos.
#72 EEUU protege sus industrias estratégicas de más valor añadido gente a los chinos que pueden interferir en sectores como la defensa o la IA

No sé dónde está el problema

Ya han copiado bastante :-D

Yo lo de las subvenciones, yo subvenciono, tú subvencionas masivamente y copias descaradamente

Sinceramente, no sé dónde está el problema de los aranceles.

Como si la UE o USA tuvieran que dar explicaciones :-D

Como mucho, a la OIC
#73 EEUU protege sus industrias estratégicas, de eso no hay duda, aunque sea a través del espionaje industrial de una oficina estatal como es la NSA a Airbus para beneficiar a Boeing... eso no debe ser intervencionismo, o es intervencionismo del güeno. Doble rasero mínimo.
Sí, China copia descaradamente, por eso solo hay que ir al registro de patentes y ver que China está a la cabeza de patentes de IA generativa. Los chinos han pasado de copiar a innovar, eso es una realidad.
Poner aranceles y sanciones, y hablar al mismo tiempo de "libre mercado" y "competencia" es el problema, el problema de la hipocresía que perjudica al desarrollo y al consumidor.
#74 los primeros que no tienen ningún problema en poner barreras a los productos extranjeros son los chinos.

Esta es una guerra comercial, y los primeros que no tienen reglas son los chinos
#1 antes todos los avances de este tipo venían de EEUU. Ahora no digo que no los haya, si no quedan ocultos entre la política exterior de la última década.
Una mejora de rendimiento de 800 veces superior.
No sé rick... A ver si va a ser como la IA de 6 millones...  media
#2 Es que es falso. El artículo dice que las GPU son 800 veces más rápidas que la CPU.

No han acelerado nada.

Mas discusión y debate en reddit, con enlace al paper original en el segundo mensaje.
www.reddit.com/r/technology/s/mf6i2XTBE5
#5 en reddit fueron un poco más allá y leyeron el paper del que sacaron la noticia, y es entre errónea o sensacionalista:

OpenMP is for parallelizing across multiprocessors. So they’re comparing CPU- and GPU-implementations and concluding that GPU-implementations are faster for very parallelizable workloads. They have not ”boosted Nvidia GPU performance”. They have utilized GPU acceleration for a scientific simulation. The GPU in question is neither faster nor slower than before. Clickbait title. It should be:

”Chinese scientists utilize GPU acceleration to speed up simulation time by 800x”.

Es decir que en vez de usar CPUs usaron GPUs en paralelo.

Edito, lo comenta #26
#2 a ver si dijeron pochocientas así en plan exagerado y transcribieron mal....
#2 aquí comenté yo hace unos días que lo deepseek me olía a humo y algunos "fanboys de no se qué" que se fueron por la parte técnica me acribillaron a negativos. Como si yo defendiera a lo americano o estuviera en contra de lo chino. Lo decía por esto precisamente y por la repercusión que había tenido en bolsa. Me escamaba tan "bajo" coste.

Aparte eso de que va tan bien ni esa ni la de Alibabá. ¿Le habéis preguntado quién es el presidente de los Estados Unidos? Para estas…  media   » ver todo el comentario
#29 Hay cosas malas de Deepseek que no se dicen. Como que está poco escalado y puedes tardar una vida en que te responda. Si lo hace.

Pero como producto es la leche. Está al nivel de Chatgpt en texto.

Pero claro, es que igual usamos el español y resulta que nos sirve tanto como Chatgpt o Deepseek pero como es español lo ninguneamos.
#33 no he entendido bien a lo que te refieres con lo de "español", disculpa.
#34 Hay chatbots creados en España pero no con tanta pompa. Los tengo en una carpeta del pc, perdona, pero sí que recuerdo chatfaq

openexpoeurope.com/es/una-ia-conversacional-espanola-abierta-y-eficaz-
#36 ah vale, ahora entendí. Gracias!
Podría, pero ya os digo yo que 800 veces ni de coña.
#3 Puede ser que danie se hubiese dedicado a modelar en serio ese fenómeno o que "simplemente" lo hayan simplificado porque les vale con un resultado aproximado y eso hace que las simulaciones casi sea tres ordenes de magnitud más rápidas. Pero como siempre, falta saber sobre qué están comparando y en qué condiciones.
#3 ¿cuál es tu formación o conocimiento sobre la investigación para afirmar eso tan rotundamente?
#44 Algo conozco.
Una puntualización para los que no leen la noticia, la mayor parte de las LLM y otras "IA"s están limitadas por el ancho de banda de la memoria, no la capacidad de computo
Esto es para simulaciones numéricas de fractura de los materiales y similares
#5

Asín desde la ignoracia de las tripas de la IA. Eso que indicas ¿quiere decir que precisas procesar una burrada de información pero que los cálculos que se hacen son triviales o al menos, no muy complejos?
#11 para hacer un calculo de algo necesitas un algoritmo y datos. Puede ser que el algoritmo sea muy rápido pero no tenga datos. Más o menos, ejemplo sería que la suma en una calculadora puede ser muy rápida, pero lo que te cuesta es teclear los números.

Entonces para acelerar los cálculos no necesitas mejor el algoritmo ni el procesador sino tener memoria más rápida o más memoria caché para almacenar los datos ... O que no hagan falta tantos datos para sacar más o menos los mismos resultados. Por ejemplo eliminando decimales.
#11 la respuesta correcta es "depende". Me explico: mirando desde dentro del procesador hacia fuera, los almacenes de datos que tienes son: registros, caches L1, L2 y L3, memoria principal, SSD y sistemas de ficheros en red. La velocidad a la que tu calculo se realiza depende de dos factores: el numero de operaciones que se calculan y la cantidad de calculos necesaria para llevarlas a cabo. Si necesitas muy pocos datos y los reusas mucho (imagina una multiplicacion de matrices) lo que…   » ver todo el comentario
#11 entiendo que es eso, conozco algo de HPC y para determinados cálkculos usan GPUs por eso mismo. Entiendo que para IA es la misma solucion para un problema parecido.
#12

Por eso las tarjetas de gama alta son "baratas" para IA, ya que traen un montón de memoria.

Gracias.
#13 Ojo, que si metes la variable precio las de gamign muchas veces salen ganadoras

www.reddit.com/r/LocalLLaMA/comments/1i69dhz/deepseek_r1_ollama_hardwa

Aqui dicen que son mejores para deepseek para propmpt determinados. No sé, es un tema complejo pero no es tan straightforward el tema
#14

a ver si un día me pongo con cosas de IA y me entero por donde me da el aire ...
#14 "pero no es tan straightforward el tema"

En español tienes una forma de decir straightforward de manera sencilla: "sencillo".

:palm:
#49 Puedo usar el término que me dé la gana, o debo usar el que te guste a ti? By the way :-D , sencillo no sería idéntico a straightforward, tiene otro significado.
#58 Puedes usar el que te dé la gana, pero los anglicismos innecesarios dan un poco de cringe vergüenza ajena o son señal de esnobismo pedantería. No lo digo yo, lo dice la RAE.

Y no, straightforward no es idéntico a "sencillo" (yo no he dicho éso). Puedes usar simple, directo... pero si quieres ajustar el significado, tienes que cambiar la sentencia completa y decir "es un tema complejo porque existen varias posibilidades". Que, oye, habla y escribe como te apetezca, pero no hay color entre una y otra forma de expresarte. :-D
#65 No te ofendas hombre, más se perdió en Cuba!
#11 en esencia, las neuronas, son regresiones lineales con umbrales de activación, así que sí.
#11 Dice que precisa procesar preciosos procesos para cálculos precisos. O algo así, no sé. Creo que me he liado {0x1f605}
#5 Por algo al paper de Google lo llamaron "Memory is all you need"
#9 Supongo que es sarcasmo... Attention, attention is all you need.
#39 Era un chiste, malo, pero chiste xD
Es QuickSort :-D a veces creo que Nvidia adrede pone algoritmos mal optimizados en sus GPU para irlos cambiando en cada generación y así mostrar grandes mejoras de modelo a modelo y la gente soltando pasta :tinfoil:
#6 No tengo pruebas, pero tampoco dudas que de que es así.
#6 Los de DeepSeek ya dijeron que pasaron de CUDA y se habían hecho su plataforma de computación programado en Assembler, pero esto de aumento de 800 veces se me escapa de mi entendimiento.
#15 Porque no es cierto.

La propaganda del partido ha encontrado un paper sin entenderlo muy bien y le han dado publicidad.
#6 Se ve que trabajas para Nvidia. Te conoces todos los trucos ...
Joer, qué Nvidia.



Perdón, no volverá a pasar :foreveralone:
Este es el año de los algoritmos chinos en el escritorio xD xD xD
Va a ir chino chano...


Vale, cierro al salir.
-- borrar ---
¿Y para juegos? Por ejemplo Minecraft :troll:
Podría...
Han descubierto algo público y notorio, incluso demostrado en Mythbusters hace 15 años.
Como lo dicen los chinos, verdad ha de ser.
La pregunta es: ¿estando China tan avanzada por qué siguen vendiendo productos de mierda? Ni un reloj que de la hora bien puedes comprar con garantías.
#51 no me digas más, tu pelucazo de 1,87€ de Aliexpress con envío incluído resulta que no funciona ...
#64 xD

No, más bien el despertador que compré en la tienda del chino después de haberme jurado no comprarle ningún producto electrónico y darle una oportunidad porque aparentemente no parecía una tecnología complicada.

menéame