Logo Fujitsu

Parte de la iniciativa de IA centrada en las personas, Zinrai, esta solución permite que las infraestructuras tecnológicas existentes aborden desafíos de IA a gran escala, sin necesidad de mayores inversiones adicionales de infraestructura.

Despliega un nuevo modelo de mecanismo basado en el paralelismo que mejora y automatiza la distribución de la memoria de una Red Neuronal Profunda, logrando un 90% de eficiencia en ensayos iniciales.

Permite el uso de imágenes de mayor resolución para reconocer diminutos elementos, mejorando la clasificación en categorías más finas y permitiendo avances que impactan en nuestros día a día.

Fujitsu ha anunciado un gran avance de la tecnología de  aprendizaje profundo, desarrollando un nuevo y eficiente mecanismo de distribución de memoria para las Redes Neuronales Profundas (DNNs- Deep Neural Networks). Utilizado de manera extensiva para muchas aplicaciones de Inteligencia Artificial que implican reconocimiento y clasificación de voz y objetos,  el uso de DNNs avanzados requiere de recursos computacionales masivos, imponiendo severas demandas de infraestructura de computación existentes. Con esta nueva solución desarrollada por Fujitsu Laboratories of Europe, el paralelismo de modelos se usa para distribuir los requerimientos de memoria DNN de una forma gestionada fácilmente, transparente y automatizada. Como resultado, la capacidad de las infraestructuras actuales para hacer frente a las aplicaciones de IA de gran escala se mejora considerablemente sin necesidad de nuevas inversiones.

Esta nueva solución logra un nuevo proceso de distribución de la memoria transformando las capas de redes neuronales diseñadas arbitrariamente, en redes equivalentes, en las que algunas o todas sus capas  son reemplazadas por un número de partes de subcapa más pequeñas. Estas partes subcapa están diseñadas para ser funcionalmente equivalentes a las originales, pero son computacionalmente mucho más eficientes para ejecutar. Es importante destacar que dado que las capas originales y nuevas provienen del mismo perfil, el proceso de formación del DNN ahora transformado y distribuido converge a la del DNN original sin coste adicional.

Fujitsu Laboratories of Europe evaluaron ampliamente la nueva tecnología incluyendo la aplicación del nuevo mecanismo a Caffe, un marco de aprendizaje profundo de código abierto ampliamente utilizado por las comunidades de I+D de todo el mundo. La solución logró más del 90% de eficiencia en la distribución de la memoria al transformar las capas completamente conectadas de AlexNet en varias NVIDIA GPUs. Como una tecnología independiente de  hardware, tiene la capacidad de explotar la potencia computacional de ambas unidades de procesamiento convencionales, así como los aceleradores de hardware actuales y emergentes, incluyendo, por ejemplo, NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs, etc u otros Chips de hardware alternativos específicamente diseñados para aumentar la eficiencia computacional en Deep Learning.

Los ejemplos de aplicaciones para la nueva solución incluyen análisis de salud, análisis y clasificación de imagen de satélite, procesamiento de lenguaje natural, donde los modelos de aprendizaje profundo a gran escala son requeridos para modelar y aprender la gran complejidad del lenguaje humano, datos basados en gráficos de gran escala incluyendo dispositivos IoT, transacciones financieras, servicios de redes sociales, etc.

Fujitsu Laboratories of Europe es el centro de excelencia para la investigación avanzada de Fujitsu que trabaja en el aprendizaje de máquinas y profundo, como parte de las soluciones y servicios digitales que se están desarrollando bajo la iniciativa de Fujitsu centrada en el ser humano, llamada Zinrai. Sus actividades incluyen una amplia colaboración y co-creacion con clientes de Fujitsu y organizaciones de investigación de EMEIA, incluyendo el Hospital Clínico San Carlos de Madrid con la solución HIKARI AI, la Universidad de Sevilla con el análisis de datos para aplicaciones turísticas y el Centro de Innovación 5G  de UK.