Debido a las características heterogéneas, paralelas, multicapa y anisostráticas de la arquitectura convencional de los ordenadores ML, la pila de software de cada modelo a escala debe desarrollarse ad hoc. En consecuencia, los costes de I+D de los ordenadores ML se concentran en el desarrollo de software, es decir, en el problema de la productividad de la programación. Con FvNA, definimos los programas y la arquitectura de un modo invariante respecto a la escala. Ambos son libres de ampliar hasta una coincidencia adecuada, la ejecución real.
|
etiquetas: ingeniería , informática , computación , desarrollo , investigación
A medida que el aprendizaje automático (machine learning, ML) se convierte en la tecnología destacada para muchos problemas emergentes, se están desarrollando ordenadores dedicados al ML a diversas escalas, desde nubes hasta dispositivos de borde. Sin embargo, las características heterogéneas, paralelas y multicapa de los ordenadores de ML convencionales concentran el coste de desarrollo en la pila de software, es decir, los marcos de ML, las bibliotecas de computación y los compiladores, lo que limita la productividad de los nuevos ordenadores de ML. Se propone una arquitectura fractal von Neumann (FvNA) para resolver el problema de la productividad de programación de los ordenadores de ML. FvNA es invariante de la escala de programación, lo que hace que el desarrollo de una familia de ordenadores ML a escala sea tan sencillo como el de un único nodo. En este estudio, generalizamos FvNA al campo de la computación paralela de propósito general. Modelamos FvNA como un ordenador paralelo abstracto, denominado máquina paralela fractal (FPM), para demostrar varias tareas representativas de propósito general que son eficientemente programables. La FPM limita la entropía de la programación aplicando restricciones al patrón de control de los sistemas de computación paralela. Sin embargo, FPM sigue siendo de propósito general y de coste óptimo. Establecemos algunos resultados preliminares que demuestran que FPM es tan potente como muchos modelos fundamentales de computación paralela, como BSP y la máquina de Turing alterna. Por lo tanto, FvNA también es aplicable en general a varios campos distintos del ML.
1. Introducción
El aprendizaje automático se está convirtiendo rápidamente en la tecnología más utilizada para muchas aplicaciones emergentes, como el procesamiento de imágenes, el reconocimiento de voz, los juegos y la atención sanitaria inteligente. Además, las aplicaciones de ML abarcan desde los móviles y los bordes hasta la supercomputación: Por ejemplo,… » ver todo el comentario
Ahora me queda claro que el desarrollo de INTEL sobre un microprocesador fotónico es uno de esos dispositivos especiales de hardware especial para el ML y por tanto para dar soporte a la Inteligencia Artificial
Intel muestra su CPU fotónica con 8 núcleos y 528 hilos a 7 nm
old.meneame.net/story/intel-muestra-cpu-fotonica-8-nucleos-528-hilos-7
Que NVIDIA no les da acceso a controladores de cluster para que no desarrollen la inteligencia artificial, no hay problema ellos desarrollan un nuevo método para programar cluster que consigue una mejora de rendimiento escalable a cualquier nivel (ya no necesitarán esos controladores) y ese nuevo desarrollo los pone a la cabeza en inteligencia artificial.
El jefe del equipo que ha desarrollado esta nueva tecnología es el mismo que desarrolló la inteligencia artificial que diseña sola nuevo hardware para inteligencia artificial
cutt.ly/rwlc9Qil
como vimos en
old.meneame.net/story/ia-crea-primer-procesador-sin-intervencion-human
Personalmente me gustan más los que vienen con algo de código que se puede probar, instalar, medir el rendimiento, etc...
Cuando leo que alguien comparte algo, entiendo que viene también la manera de comprobar tu afirmación. Si dices que viene, espero código. Las palabras se las lleva el viento.