Noticias de ciencia y lo que la rodea
10 meneos
78 clics

Arquitectura Fractal von Neumann (FvNA) para abordar el problema de productividad de programación de Aprendizaje Automático (ML)

Debido a las características heterogéneas, paralelas, multicapa y anisostráticas de la arquitectura convencional de los ordenadores ML, la pila de software de cada modelo a escala debe desarrollarse ad hoc. En consecuencia, los costes de I+D de los ordenadores ML se concentran en el desarrollo de software, es decir, en el problema de la productividad de la programación. Con FvNA, definimos los programas y la arquitectura de un modo invariante respecto a la escala. Ambos son libres de ampliar hasta una coincidencia adecuada, la ejecución real.

| etiquetas: ingeniería , informática , computación , desarrollo , investigación
#0 Hoyga, si subes algo así, al menos comenta de qué va, o por qué lo consideras relevante.
#1 Resumen
A medida que el aprendizaje automático (machine learning, ML) se convierte en la tecnología destacada para muchos problemas emergentes, se están desarrollando ordenadores dedicados al ML a diversas escalas, desde nubes hasta dispositivos de borde. Sin embargo, las características heterogéneas, paralelas y multicapa de los ordenadores de ML convencionales concentran el coste de desarrollo en la pila de software, es decir, los marcos de ML, las bibliotecas de computación y los compiladores, lo que limita la productividad de los nuevos ordenadores de ML. Se propone una arquitectura fractal von Neumann (FvNA) para resolver el problema de la productividad de programación de los ordenadores de ML. FvNA es invariante de la escala de programación, lo que hace que el desarrollo de una familia de ordenadores ML a escala sea tan sencillo como el de un único nodo. En este estudio, generalizamos FvNA al campo de la computación paralela de propósito general. Modelamos FvNA como un ordenador paralelo abstracto, denominado máquina paralela fractal (FPM), para demostrar varias tareas representativas de propósito general que son eficientemente programables. La FPM limita la entropía de la programación aplicando restricciones al patrón de control de los sistemas de computación paralela. Sin embargo, FPM sigue siendo de propósito general y de coste óptimo. Establecemos algunos resultados preliminares que demuestran que FPM es tan potente como muchos modelos fundamentales de computación paralela, como BSP y la máquina de Turing alterna. Por lo tanto, FvNA también es aplicable en general a varios campos distintos del ML.
1. Introducción
El aprendizaje automático se está convirtiendo rápidamente en la tecnología más utilizada para muchas aplicaciones emergentes, como el procesamiento de imágenes, el reconocimiento de voz, los juegos y la atención sanitaria inteligente. Además, las aplicaciones de ML abarcan desde los móviles y los bordes hasta la supercomputación: Por ejemplo,…   » ver todo el comentario
#4 << se están desarrollando ordenadores dedicados al ML a diversas escalas, desde nubes hasta dispositivos especiales >>

Ahora me queda claro que el desarrollo de INTEL sobre un microprocesador fotónico es uno de esos dispositivos especiales de hardware especial para el ML y por tanto para dar soporte a la Inteligencia Artificial


Intel muestra su CPU fotónica con 8 núcleos y 528 hilos a 7 nm
old.meneame.net/story/intel-muestra-cpu-fotonica-8-nucleos-528-hilos-7
#1 Yo te lo explicaría pero no quiero espolilear el final.
#3 #2 Resulta que ante las sanciones que occidente está imponiendo a la industria china para limitar su crecimiento, los chinos están respondiendo con una tremenda inventiva que además comparten con el resto de la humanidad, de la cual el ejemplo expuesto es una muestra bastante admirable.

Que NVIDIA no les da acceso a controladores de cluster para que no desarrollen la inteligencia artificial, no hay problema ellos desarrollan un nuevo método para programar cluster que consigue una mejora de rendimiento escalable a cualquier nivel (ya no necesitarán esos controladores) y ese nuevo desarrollo los pone a la cabeza en inteligencia artificial.

El jefe del equipo que ha desarrollado esta nueva tecnología es el mismo que desarrolló la inteligencia artificial que diseña sola nuevo hardware para inteligencia artificial

cutt.ly/rwlc9Qil

como vimos en

old.meneame.net/story/ia-crea-primer-procesador-sin-intervencion-human
#5 Comparten, donde?
#9 No te has fijado que el envío es un paper en una revista occidental ???
#10 Si, lo he leído además. En el paper viene en pseudocódigo ese triple bucle for y no hay repositorio con ninguna implementación. Hay veces en que estos papers vienen con repositorio y otras veces no vienen.

Personalmente me gustan más los que vienen con algo de código que se puede probar, instalar, medir el rendimiento, etc...

Cuando leo que alguien comparte algo, entiendo que viene también la manera de comprobar tu afirmación. Si dices que viene, espero código. Las palabras se las lleva el viento.
#5 ¡Gracias! :-)
#5 Pues gracias por las explicaciones. :hug:
Es decir... ¡majia!
comentarios cerrados

menéame