Red de información TI para profesionales ITMedia NetWork

sábado, 27 de julio de 2024
Actualizado a las 3:02


Búsqueda avanzada

Publicidad

Publicidad

Últimas noticias

Redes neuronales: Fujitsu desarrolla una tecnología de aprendizaje profundo que hará viables nuevas aplicaciones de IA

29 Agosto 2017por Redacción

Fujitsu Laboratories ha logrado un gran avance en aprendizaje profundo. Como parte de su iniciativa Zinrai, ha desarrollado un eficiente mecanismo de distribución de memoria para redes neuronales profundas utilizadas en aplicaciones de Inteligencia Artificial como las de medicina y salud, procesamiento de lenguaje natural, análisis de imágenes de satélite y las que requieren modelos de deep learning a gran escala .

Fujitsu Laboratories of Europa ha logrado aplicar el paralelismo de modelos para distribuir los requerimientos de memoria en redes neuronales profundas de una forma transparente, automatizada y fácilmente gestionada

Fujitsu Laboratories of Europa ha logrado aplicar el paralelismo de modelos para distribuir los requerimientos de memoria en redes neuronales profundas de una forma transparente, automatizada y fácilmente gestionada

El uso de redes neuronales porfundas (DNNs o Deep Neural Networks), esenciales para numerosas aplicaciones de Inteligencia Artificial, requiere masivos recursos computacionales, imponiendo severas demandas de infraestructuras de computación.

Ante la necesidad de redes neuronales más amplias y profundas para hacer frente a los retos de la IA, hemos comprobado que distribuyendo los requerimientos de memoria DNN con nuestra tecnología, es posible ampliar el tamaño de las redes neuronales y su despliegue en múltiples máquinas, lo que permite el desarrollo de modelos DNNs más precisos y a gran escala

Dr. Tsuneo Nakata

Para solventar esta necesidad, la solución desarrollada por Fujitsu Laboratories of Europa aplica el paralelismo de modelos para distribuir los requerimientos de memoria en DNNs de una forma transparente, automatizada y fácilmente gestionada. Como resultado, la capacidad de las infraestructuras actuales para hacer frente a las aplicaciones de IA de gran escala se mejora considerablemente sin necesidad de nuevas inversiones.

El Dr. Tsuneo Nakata, CEO de Fujitsu Laboratories of Europe, señala que "en los últimos años hemos visto un aumento masivo de avances tecnológicos que utilizan aceleradores de hardware para soportar la enorme escala de cálculos necesarios para construir Deep Neural Networks (DNNs) destinadas a aplicaciones de IA, aunque el aumento continuo en los costos computacionales de las DNNs es un desafío importante, particularmente cuando el tamaño del modelo de DNNs aumenta hasta el punto de superar la capacidad de memoria del acelerador”.

“Ante esa necesidad de redes neuronales más amplias y profundas, junto a una más detallada clasificación de las categorías, para hacer frente a los retos de la IA, hemos resuelto que distribuyendo los requerimientos de memoria DNN con nuestra tecnología, es posible ampliar el tamaño de las redes neuronales y su despliegue en múltiples máquinas, lo que permite el desarrollo de modelos DNNs más precisos y a gran escala”.

En concreto, la solución realiza un innovador proceso de distribución de la memoria, transformando las capas de redes neuronales diseñadas arbitrariamente en redes equivalentes, en las que algunas o todas sus capas son reemplazadas por un número de subcapas más pequeñas.

La solución despliega un nuevo modelo de mecanismo basado en el paralelismo que mejora y automatiza la distribución de la memoria de una Red Neuronal Profunda, logrando en ensayos iniciales un 90% de eficiencia

Estas subcapas son funcionalmente equivalentes a las originales aunque, desde el punto de vista de la computación, son mucho más eficientes para ejecutar. Es importante destacar que dado que las capas originales y nuevas provienen del mismo perfil, el proceso de formación del DNN ahora transformado y distribuido converge con la DNN original sin coste adicional.

Fujitsu Laboratories of Europa ha evaluado exhaustivamente la nueva tecnología, obteniendo más del 90% de eficiencia en la distribución de la memoria al transformar las capas completamente conectadas de AlexNet en varias NVIDIA GPUs; y ya ha aplicado el nuevo mecanismo a Caffe, el marco de referencia open source de aprendizaje profundo ampliamente utilizado por las comunidades de I+D de todo el mundo.

Al tratarse de una tecnología independiente de hardware, puede explotar la potencia computacional de unidades de procesamiento convencionales, así como los aceleradores de hardware como NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs y procesadores diseñados para deep learning

Además, como se trata de una tecnología independiente de hardware, puede explotar la potencia computacional de unidades de procesamiento convencionales, así como los aceleradores de hardware actuales y emergentes, incluyendo, por ejemplo, NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs u otros procesadores específicamente diseñados para deep learning.

Entre los ejemplos de aplicaciones que pueden sacar partido de esta solución están las de medicina y salud, procesamiento de lenguaje natural, análisis y clasificación de imágenes de satélite y, en general, ámbitos en los que los modelos de aprendizaje profundo a gran escala son requeridos para modelar y aprender la gran complejidad del lenguaje humano, datos basados en gráficos de gran escala incluyendo dispositivos IoT, transacciones financieras, servicios de redes sociales, etc.

Fujitsu Laboratories of Europe es el centro de excelencia para la investigación avanzada de Fujitsu que trabaja en deep y machine learning, como parte de las soluciones y servicios digitales que se están desarrollando bajo la iniciativa de la compañía japonesa, centrada en las personas y denominada Zinrai.

Entra sus actividades están la colaboración y co-creacion con sus clientes y e instituciones de investigación de la región de EMEIA, entre las que están el Hospital Clínico San Carlos de Madrid con la solución HIKARI AI, la Universidad de Sevilla con el análisis de datos para aplicaciones turísticas y el Centro de Innovación 5G en el Reino Unido. www.fujitsu.com/fts/about y en www.fujitsu.com/fts/about

ShareThis

Publicidad

Publicidad

Publicidad

Opinión

Bill Waid, director de tecnología en FICO

La importancia del trabajo en equipo en los procesos de innovación y aceleración

El científico estadounidense Thomas Alva Edison llegó a registrar más de un millar de inventos a lo largo de su vida y, sin embargo, no pudo patentar el que para muchos fue su hallazgo más importante: 'la factoría de inventos', un concepto sobre el que Bill Waid, chief product and technology officer en FICO, reflexiona y anima a que se aplique a estrategias de colaboración, innovación y aceleración

Soluciones

DXC desarrolla una solución para Oxfam Intermón sobre la plataforma de Servicenow

Dentro de su compromiso con el voluntariado y la innovación social, DXC Technology ha desarrollado de manera altruista para la ONG Oxfam Intermón, que trabaja en 86 países para acabar con las desigualdades, una ‘solución digital de derechos humanos’, que facilitará a distintos tipos de empresas gestionar y cumplir los requisitos de diligencia debida en materia de derechos humanos y medioambientales, aplicada en múltiples legislaciones

techWEEK info

TechWEEK forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, Strategic Partner, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2024 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de techWEEK.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de techWEEK.es

Procesando envíos...

Envío de artículos por email de techWEEK.es

Email enviado. Cerrar

Envío de artículos por email de techWEEK.es

Error en el envio. Pulse aqui para cerrar.Cerrar