cultura y tecnología
197 meneos
562 clics
Un nuevo algoritmo podría reducir los requerimientos energéticos de los sistemas de IA hasta en un 95 por ciento (eng)

Un nuevo algoritmo podría reducir los requerimientos energéticos de los sistemas de IA hasta en un 95 por ciento (eng)

Los científicos de BitEnergy AI crearon un método llamado "Multiplicación de complejidad lineal" (L-Mul) que reemplaza las multiplicaciones complejas de punto flotante en los modelos de IA con sumas de números enteros más simples. El equipo probó su método en diversas tareas de lenguaje, visión y razonamiento, incluidas la comprensión del lenguaje, el razonamiento estructural, las matemáticas y la respuesta a preguntas de sentido común. dx.doi.org/10.48550/arxiv.2410.00907

| etiquetas: algoritmo , consumo , energético , l-mul , multiplicación complejidad lineal
O potencialmente que con el mismo consumo energético que el actual puedan multiplicar por 20 sus capacidades.
#1 Efectivamente, yo lo veo como una posibilidad de Edge-AI que requiera un consumo muy pequeño de energia.

Ya tenemos el arduino BLE y el sparkfun con tensorflow que funciona con pilas de botón, si consigues multiplicar su capacidad en algo tan simple y barato se podrán hacer virguerías sin conexión al cloud y aumentando la protección de información.
#2, habla de consumo en términos de energía, no en términos de memoria que es un limitante tanto o más importante para los Edge devices.
#29 para hacer inferencia no necesitas memoria.
#37, cómo que no? Para hacer inferencia tienes que cargar el modelo en memoria.
#1 Si hasta ahora en todos los campos donde se ha conseguido ahorrar energía o sustituir la fuente por renovables solo ha servido para aumentar su consumo, en esto no va a ser diferente.
#1 paradoja de Jevons
#6 venía a eso. Si consiguen esa eficacia apuesto que el consumo energético de las IAs aumenta un 50% como mínimo.
#1 El número 20 es justo el que recuerdo. Al sustituir las sumas actuales por una función más compleja, aunque fácil de calcular, es necesario 20 veces más entrenamiento de la red neuronal para alcanzar los mismos resultados actuales.
#7 o sea que lo que ahorras por un lado se gasta por otro? O entendi cualquier cosa?
#11 Cómo las luces led. Lo que ahorras en gasto... lo gastas en más energía :-P
#14 Explica eso...
#19 Suele pasar que, como te ahorras pasta con las leds, pones muchas más. Al final, tienes el mismo gasto pero con mucha más contaminación lumínica...
#26 No me parece para nada que eso pase.

PS: soy arquitecto y los proyectos de iluminación están muy optimizados.
En urbanización, hay normativas muy estrictas en cuanto a contaminación lumínica.
#28 Es más una sensación personal que otra cosa. Y noticias como la del alcalde de VIgo solo hacen que persista esa sensación.
#30 Es un caso muy muy muy anecdótico...
#19 doy fe, pasamos a led y ahora tengo mas luces philips hue que todas las bombillas que tenia antes de la revolución del led en mi vida juntas y prendidas al mismo tiempo.
#33 Pues muy mal. Allà tú con tu consumo innecesario...
#1 no, que a implique b no significa que b implique a.

es una simplificación muy burda
#18 Te lo voy a explicar de otra forma: "si antes podiamos pagar 15 millones de dolares al mes en electricidad, el mes que viene seguiremos pudiendo gastar los mismos 15 millones. Si antes dabamos de comer a 1.000 ordenadores con eso, ahora podremos dar de comer a 20.000. Voy empezando a pedir presupuesto para ampliar el datacenter...".
#1 por lo que yo entiendo, no. De hecho, con el hardware especializado actual este algoritmo ahorraria energia pero tanto el entrenamiento como la inferencia serian mas lentos (3 ciclos de reloj vs 1 por operacion). Por lo que a no ser que se fabrique hardware especializado para esta operacion no merecera la pena, y a las grandes empresas que poseen cientos de millones de dolares invertidos en hardware actual no les va a interesar.
#1 Económicamente creo que ahora mismo, les interesa gastar menos que aumentar las capacidades de la IA, las empresas del gremio están perdiendo pastas precisamente por eso a raudales...

Dudo mucho que ofrecer un aumento de su capacidad un 20% en el momento actual les reporte beneficios, ahora bien, bajar su consumo energético, les supone salvar sus cuentas, por lo que veo mas viable que lo dediquen a lo primero que a lo segundo.
#24 les interesa gastar menos que aumentar las capacidades de la IA

Están en plena escalada de capacidades para ganarse un espacio en el mercado, están buscando como ampliar su consumo energético de forma barata planteándose comprar centrales nucleares.

En absoluto su prioridad es reducir costes, su prioridad es ganar la guerra comercial de la IA.

Dudo mucho que ofrecer un aumento de su capacidad un 20%

Yo he hablado de multiplicar por 20, que supone un aumento de "capacidad" del 1.900%, potencialmente que la IA sea un 1.900% más inteligente que ahora con el mismo consumo energético que el actual.
#1  sería impresionante!!! 
#1 Va a ser eso.
Le darán una silla al esclavo que responde las preguntas del pringao que se cree que es el software el que le está respondiendo, y arreglado.
#9 al indio que maneja los autos en San Francisco. Esos que de vez en cuando los trollean a todos desde el call center cuando saturan un punto en particular.
Ahora otra noticia de la batería mágica semanal y otra que mencione grafeno y cantamos bingo, "fapbingo" :foreveralone:
#17 una batería de grafeno diseñada por IA que si te la frotas te cura el cancer....
#17 #21 ¿y los gatos? ¿Es que nadie piensa en los gatos?
Han inventado la aritmético en punto fijo.
O la sopa de ajo.
95% ... ya, hagan sus apuestas señores
#4 94,8%
#5 93,333333% que me gané?
#4 a ver quién se acerca más al ahorro exacto, pero sin pasarse. Quién acierte la cifra exacta gana una IA.
¡a jugar!

#5 #12 os habéis pasado.
Esto sin duda, bajará los precios de toooooodas las páginas creadas para hacer deepfakes :troll:
Toda multiplicación es una serie de sumas y no por eso es más eficiente. Requiere muchos más ciclos de computación.

Por eso se usan algoritmos como el de Karatsuba

en.m.wikipedia.org/wiki/Karatsuba_algorithm


La suma de números flotantes tiene además problemas de pérdida de precisión y requiere otros algoritmos como el de Kahan

en.m.wikipedia.org/wiki/Kahan_summation_algorithm


A ver en qué queda el algoritmo. Potencialmente podría usarse para cualquier uso
Esto ya es viejo (en el mundo IA), "noticia" de hace 4 meses... ejemplo

arstechnica.com/information-technology/2024/06/researchers-upend-ai-st
#10 No tiene absolutamente nada que ver lo uno con lo otro. Lo que tu enlazas está enfocado a reemplazar las multiplicaciones de matrices. Lo que ha llegado a portada hace unas horas sustituye las multiplicaciones de números individuales.

Como añadido, lo de MatMul-Free está muy restringido al caso concreto de los LLMs, mientras que lo que se está discutiendo aquí es muchísimo más genérico.
#10 dx.doi.org/10.48550/arxiv.2410.00907
Subido al arxiv el 1 de octubre de 2024.

Nunca lees nada y lo que lees no lo entiendes.

Cc #20

menéame