Fujitsu anuncia un gran avance de la tecnología de aprendizaje profundo
El fabricante ha implementado una nueva solución para distribuir los requerimientos de memoria de redes neuronales profundas (DNN) de una forma gestionada fácilmente, transparente y automatizada.
Fujitsu Laboratories of Europe ha desarrollado una tecnología de aprendizaje profundo, rentable, eficiente en memoria y escalable para aplicaciones de inteligencia artificial (IA), que supera las actuales restricciones de memoria de la GPU.
Esta nueva solución logra un nuevo proceso de distribución de la memoria transformando las capas de redes neuronales profundas (DNN), diseñadas arbitrariamente, en redes equivalentes en las que algunas o todas sus capas son reemplazadas por un número de partes de subcapa más pequeñas.
El uso de DNN avanzadas requiere de recursos computacionales masivos, imponiendo severas demandas de infraestructura de computación existentes. Con la nueva solución desarrollada por Fujitsu Laboratories of Europe, el paralelismo de modelos se usa para distribuir los requerimientos de memoria DNN de una forma gestionada fácilmente, transparente y automatizada.
Fujitsu Laboratories of Europe ha evaluado la nueva tecnología incluyendo la aplicación del nuevo mecanismo a Caffe, un marco de aprendizaje profundo de código abierto ampliamente utilizado por las comunidades de I+D de todo el mundo.
La solución ha logrado más del 90% de eficiencia en la distribución de la memoria al transformar las capas completamente conectadas de AlexNet en varias NVIDIA GPUs.
Los ejemplos de aplicaciones para la nueva solución incluyen análisis de salud, análisis y clasificación de imagen de satélite, procesamiento del lenguaje natural, datos basados en gráficos de gran escala incluyendo dispositivos IoT, transacciones financieras, servicios de redes sociales, etc.