Red de información TI para profesionales ITMedia NetWork

domingo, 31 de mayo de 2020
Actualizado a las 12:35


Búsqueda avanzada

Publicidad

Publicidad

Últimas noticias

Redes neuronales: Fujitsu desarrolla una tecnología de aprendizaje profundo que hará viables nuevas aplicaciones de IA

29 Agosto 2017por Redacción

Fujitsu Laboratories ha logrado un gran avance en aprendizaje profundo. Como parte de su iniciativa Zinrai, ha desarrollado un eficiente mecanismo de distribución de memoria para redes neuronales profundas utilizadas en aplicaciones de Inteligencia Artificial como las de medicina y salud, procesamiento de lenguaje natural, análisis de imágenes de satélite y las que requieren modelos de deep learning a gran escala .

Fujitsu Laboratories of Europa ha logrado aplicar el paralelismo de modelos para distribuir los requerimientos de memoria en redes neuronales profundas de una forma transparente, automatizada y fácilmente gestionada

Fujitsu Laboratories of Europa ha logrado aplicar el paralelismo de modelos para distribuir los requerimientos de memoria en redes neuronales profundas de una forma transparente, automatizada y fácilmente gestionada

El uso de redes neuronales porfundas (DNNs o Deep Neural Networks), esenciales para numerosas aplicaciones de Inteligencia Artificial, requiere masivos recursos computacionales, imponiendo severas demandas de infraestructuras de computación.

Ante la necesidad de redes neuronales más amplias y profundas para hacer frente a los retos de la IA, hemos comprobado que distribuyendo los requerimientos de memoria DNN con nuestra tecnología, es posible ampliar el tamaño de las redes neuronales y su despliegue en múltiples máquinas, lo que permite el desarrollo de modelos DNNs más precisos y a gran escala

Dr. Tsuneo Nakata

Para solventar esta necesidad, la solución desarrollada por Fujitsu Laboratories of Europa aplica el paralelismo de modelos para distribuir los requerimientos de memoria en DNNs de una forma transparente, automatizada y fácilmente gestionada. Como resultado, la capacidad de las infraestructuras actuales para hacer frente a las aplicaciones de IA de gran escala se mejora considerablemente sin necesidad de nuevas inversiones.

El Dr. Tsuneo Nakata, CEO de Fujitsu Laboratories of Europe, señala que "en los últimos años hemos visto un aumento masivo de avances tecnológicos que utilizan aceleradores de hardware para soportar la enorme escala de cálculos necesarios para construir Deep Neural Networks (DNNs) destinadas a aplicaciones de IA, aunque el aumento continuo en los costos computacionales de las DNNs es un desafío importante, particularmente cuando el tamaño del modelo de DNNs aumenta hasta el punto de superar la capacidad de memoria del acelerador”.

“Ante esa necesidad de redes neuronales más amplias y profundas, junto a una más detallada clasificación de las categorías, para hacer frente a los retos de la IA, hemos resuelto que distribuyendo los requerimientos de memoria DNN con nuestra tecnología, es posible ampliar el tamaño de las redes neuronales y su despliegue en múltiples máquinas, lo que permite el desarrollo de modelos DNNs más precisos y a gran escala”.

En concreto, la solución realiza un innovador proceso de distribución de la memoria, transformando las capas de redes neuronales diseñadas arbitrariamente en redes equivalentes, en las que algunas o todas sus capas son reemplazadas por un número de subcapas más pequeñas.

La solución despliega un nuevo modelo de mecanismo basado en el paralelismo que mejora y automatiza la distribución de la memoria de una Red Neuronal Profunda, logrando en ensayos iniciales un 90% de eficiencia

Estas subcapas son funcionalmente equivalentes a las originales aunque, desde el punto de vista de la computación, son mucho más eficientes para ejecutar. Es importante destacar que dado que las capas originales y nuevas provienen del mismo perfil, el proceso de formación del DNN ahora transformado y distribuido converge con la DNN original sin coste adicional.

Fujitsu Laboratories of Europa ha evaluado exhaustivamente la nueva tecnología, obteniendo más del 90% de eficiencia en la distribución de la memoria al transformar las capas completamente conectadas de AlexNet en varias NVIDIA GPUs; y ya ha aplicado el nuevo mecanismo a Caffe, el marco de referencia open source de aprendizaje profundo ampliamente utilizado por las comunidades de I+D de todo el mundo.

Al tratarse de una tecnología independiente de hardware, puede explotar la potencia computacional de unidades de procesamiento convencionales, así como los aceleradores de hardware como NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs y procesadores diseñados para deep learning

Además, como se trata de una tecnología independiente de hardware, puede explotar la potencia computacional de unidades de procesamiento convencionales, así como los aceleradores de hardware actuales y emergentes, incluyendo, por ejemplo, NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs u otros procesadores específicamente diseñados para deep learning.

Entre los ejemplos de aplicaciones que pueden sacar partido de esta solución están las de medicina y salud, procesamiento de lenguaje natural, análisis y clasificación de imágenes de satélite y, en general, ámbitos en los que los modelos de aprendizaje profundo a gran escala son requeridos para modelar y aprender la gran complejidad del lenguaje humano, datos basados en gráficos de gran escala incluyendo dispositivos IoT, transacciones financieras, servicios de redes sociales, etc.

Fujitsu Laboratories of Europe es el centro de excelencia para la investigación avanzada de Fujitsu que trabaja en deep y machine learning, como parte de las soluciones y servicios digitales que se están desarrollando bajo la iniciativa de la compañía japonesa, centrada en las personas y denominada Zinrai.

Entra sus actividades están la colaboración y co-creacion con sus clientes y e instituciones de investigación de la región de EMEIA, entre las que están el Hospital Clínico San Carlos de Madrid con la solución HIKARI AI, la Universidad de Sevilla con el análisis de datos para aplicaciones turísticas y el Centro de Innovación 5G en el Reino Unido. www.fujitsu.com/fts/about y en www.fujitsu.com/fts/about

ShareThis

Publicidad

Publicidad

Publicidad

Opinión

Werner Vogels, CTO de Amazon y de AWS

Amazon supera los grandes desafíos del Big Data con Galaxy, el data lake de su red logística

En 2019, Amazon decidió crear Galaxy, un data lake capaz de dar soporte a toda su red logística, una de las mayores del planeta. Werner Vogels, CTO de Amazon.com, nos revela los retos de aplicar el Big Data en las empresas y lo que resuelve el aplicar un lago de datos, similares a los que se enfrenta la propia Amazon

Soluciones

Seresco participa en el proyecto CIP - Olive para el cultivo eficiente de olivares en Egipto

Seresco participa, junto a empresas españolas y de Egipto, en el proyecto CIP - Olive de agricultura de precisión, financiado por el CDTI y el ITIDA egipcio, que contempla el desarrollo de un sistema integrado de IoT basado en la nube y que permitirá controlar los principales problemas que se presentan en los olivares, como son plagas e infecciones

techWEEK info

TechWEEK forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, Strategic Partner, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2020 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de techWEEK.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de techWEEK.es

Procesando envíos...

Envío de artículos por email de techWEEK.es

Email enviado. Cerrar

Envío de artículos por email de techWEEK.es

Error en el envio. Pulse aqui para cerrar.Cerrar