Los científicos de BitEnergy AI crearon un método llamado "Multiplicación de complejidad lineal" (L-Mul) que reemplaza las multiplicaciones complejas de punto flotante en los modelos de IA con sumas de números enteros más simples. El equipo probó su método en diversas tareas de lenguaje, visión y razonamiento, incluidas la comprensión del lenguaje, el razonamiento estructural, las matemáticas y la respuesta a preguntas de sentido común.
dx.doi.org/10.48550/arxiv.2410.00907
Ya tenemos el arduino BLE y el sparkfun con tensorflow que funciona con pilas de botón, si consigues multiplicar su capacidad en algo tan simple y barato se podrán hacer virguerías sin conexión al cloud y aumentando la protección de información.
PS: soy arquitecto y los proyectos de iluminación están muy optimizados.
En urbanización, hay normativas muy estrictas en cuanto a contaminación lumínica.
es una simplificación muy burda
Dudo mucho que ofrecer un aumento de su capacidad un 20% en el momento actual les reporte beneficios, ahora bien, bajar su consumo energético, les supone salvar sus cuentas, por lo que veo mas viable que lo dediquen a lo primero que a lo segundo.
Están en plena escalada de capacidades para ganarse un espacio en el mercado, están buscando como ampliar su consumo energético de forma barata planteándose comprar centrales nucleares.
En absoluto su prioridad es reducir costes, su prioridad es ganar la guerra comercial de la IA.
Dudo mucho que ofrecer un aumento de su capacidad un 20%
Yo he hablado de multiplicar por 20, que supone un aumento de "capacidad" del 1.900%, potencialmente que la IA sea un 1.900% más inteligente que ahora con el mismo consumo energético que el actual.
O la sopa de ajo.
¡a jugar!
#5 #12 os habéis pasado.
Por eso se usan algoritmos como el de Karatsuba
en.m.wikipedia.org/wiki/Karatsuba_algorithm
La suma de números flotantes tiene además problemas de pérdida de precisión y requiere otros algoritmos como el de Kahan
en.m.wikipedia.org/wiki/Kahan_summation_algorithm
A ver en qué queda el algoritmo. Potencialmente podría usarse para cualquier uso
arstechnica.com/information-technology/2024/06/researchers-upend-ai-st
Como añadido, lo de MatMul-Free está muy restringido al caso concreto de los LLMs, mientras que lo que se está discutiendo aquí es muchísimo más genérico.
Subido al arxiv el 1 de octubre de 2024.
Nunca lees nada y lo que lees no lo entiendes.
Cc #20