edición general
30 meneos
289 clics
El futuro de la multiplicación de matrices gracias a AlphaTensor

El futuro de la multiplicación de matrices gracias a AlphaTensor

La multiplicación C = A · B de dos matrices cuadradas n×n tiene un coste computacional de n3 productos y n3−n2 sumas con el algoritmo que multiplica filas por columnas (n productos y n–1 sumas)[...] Nature publica AlphaTensor, la nueva inteligencia artificial de DeepMind (Google), que descubre nuevos algoritmos de multiplicación de matrices que superan a los humanos. La mejora actual es pequeña,

| etiquetas: multiplicación , matrices , algoritmo , inteligencia artificial
En el pasado, los algoritmos eran un producto casi exclusivo de las largas y profundas reflexiones de los expertos. Ahora hemos visto que la IA puede utilizarse para el descubrimiento de algoritmos. Esto puede tener un impacto bastante grande.
#1 Lo tiene y mas que lo va a tener, al final las IA lo que son capaces es de hacer miles de millones de pruebas y combinaciones a toda velocidad y encontrar las mejores de ellas para el proposito en cuestion.
#1 No lo pongo en duda pero, ¿crees que ayudará a paliar el mayor problema que afrontamos los informáticos?
#8 no, vas a seguir sin comeros una rosca, y sin mujeres en la carrera, eso no tiene solución...
:troll: :troll:
#9 ¡Mierda! ¡Lo sabía! :foreveralone:
Que buena pinta. De momento son mejorías muy poco notables, pero al ritmo que avanza este campo puede acabar suponiendo una diferencia sustancial en el coste computacional de algoritmos que se utilizan en muchas ramas de la ciencia. Realmente el campo del machine learning está abriendo puertas en muchísimos aspectos distintos, es la revolución del siglo XXI (aunque mucha de la base sea del siglo pasado).
Las multiplicaciones de matrices es el cálculo más costoso en las redes neuronales. Asi que tenemos redes neuronales mejorandose así mismas. :tinfoil:
En la práctica lo que busca es reducir el número de operaciones, sobretodo multiplicaciones. Pero como me dijeron una vez sale más barato comprar otro cluster con 20 cores que andar refinando algoritmos.
#6 Cada caso de uso es un mundo:

-Añadir cores no te reduce el tiempo de ejecución de si el algoritmo que usas no es paralelizable.
-Dependiendo de la escala del problema puede salir más a cuenta pagar a un ingeniero competente que comprar mil servidores más y pagar su consumo eléctrico asociado.
-En sistemas producidos en masa, el coste de ingeniería se reparte entre todas las unidades.
comentarios cerrados

menéame