Red de información TI para profesionales ITMedia NetWork

jueves, 13 de agosto de 2020
Actualizado a las 10:10


Búsqueda avanzada

Publicidad

Publicidad

Correcaminos: un petabyte por segundo con sistemas híbridos

06 Noviembre 2007

Se llama Roadrunner y está aún en desarrollo, pero ya acapara todas las miradas de la industria. Una tecnología que podría superar el petabyte por segundo y convertir en historia los cuellos de botella de entrada-salida en los sistemas de almacenamiento de supercomputación.

Correcaminos: un petabyte por segundo con sistemas híbridos

Correcaminos: un petabyte por segundo con sistemas híbridos

La nueva estrella de la supercomputación es un sistema valorado en 26 millones de euros, con el nombre de un personaje de dibujos animados y el de un coche deportivo de los años 70: Roadrunner (Correcaminos). Actualmente en construcción por parte de IBM para el Laboratorio Los Álamos del Departamento de Energía de EEUU, Roadrunner podría ofrecer velocidades de 1.000 billones de cálculos (1 petabyte) por segundo Roadrunner bien puede ser la nueva 'estrella del rock' del Departamento de Energía estadounidense, que utilizará esta máquina para gestionar y asegurar que todo el inventario de armas nucleares del país se encuentre bajo estricto control y seguridad, eliminando cualquier riesgo de detonaciones subterráneas.

Roadrunner se está construyendo con hardware comercialmente disponible, basado en el sistema operativo RHEL 4.3 de Red Hat. El diseño prevé el despliegue de servidores Systems x3755 de IBM basados en procesadores Opteron de AMD junto con sistemas BladeCenter H, dotados de nuevos chips Cell, diseñados especialmente para la industria del videojuego. Con Roadrunner, podría llegar una nueva era de computación en la que las arquitecturas híbridas se combinen entre sí y sea posible crear megasistemas de almacenamiento.

Por supuesto, Roadrunner, de no fallar nada, se convertiría en el ordenador más potente y veloz del mundo.

Aunque los actuales pocesadores ofrecen una mayor velocidad, la arquitectura I/O aporta una configuración optimizada y el software utilizado en los sistemas de computación hoy en día es más eficiente, sigue habiendo un problema importante: ¿cómo diseñar un sistema de almacenamiento capaz de aguantar esta elevadísima cantidad de datos bajo procesamiento en cualquier momento? Hasta ahora, para resolverlo se han utilizado los tradicionales sistemas I/O de almacenamiento, eficaces pero muchas veces, verdadero 'embudo' de la supercomputación.

Pero ahora, Panasas, una pequeña compañía de California, ha sido la encargada, por el equipo Roadrunner, de crear y desplegar ActiveScale 3.0 Storage Cluster como el nuevo sistema de almacenamiento del mega-sistema. Y el problema inherente al modelo I/O podría resolverse. Roadrunner ejecutará fórmulas científicas extremamente complejas con el sistema operativo Linux y el Panasas Storage Cluster, con DirectFlow. La capacidad DirectFlow ofrece una vía paralela para datos, llamada PNFS (Sistema de Archivos de Red Paralelo) que permite comunicaciones directas de alta velocidad entre los nodos de los cluster Linux y los clusters de almacenamiento de Panasas.

Los sistemas convencionales de almacenamiento utilizan un único controlador de dos vías para dirigir todo el tráfico de información. Panasas, fundada por Garth Gibson, el inventor del almacenamiento RAID, introduce el PNFS que incorpora dos controladores de tráfico.

"PNFS separa el acceso de metadatos del flujo de datos, permitiendo el acceso directo y paralelo a los sistemas NAS de almacenamiento", explica Henry Balthazar, consultor de la firma 451 Group. "Con un sistema SAN o NAS, un solo controlador origina un cuello de botella, especialmente en entornos donde el rendimiento es crucial como los de HPC. La principal ventaja de los sistemas de almacenamiento en cluster es que reparten la carga a lo largo de varios sistemas para asegurar los accesos de alta velocidad".

"El sistema de archivos en paralelo es un componente imprescindible del nuevo ecosistema de Roadrunner", según Mike Karp, analista de Enterprise Management Associates. "El tipo de cálculos que el Laboratorio de Los Álamos ejecuta es de un nivel muy complejo y demandan accesos paralelos", asegura Karp. "Esto significa que las CPUs procesan los datos simultá-neamente, con una latencia muy baja pero con altas velocidades y así aseguran que los cálculos se ejecutan al mismo tiempo, es decir, en paralelo".

Gibson, por su parte, señala la fiabilidad y la integridad como las marcas distintivas del sistema de almacenamiento de Panasas.

"Cuando se produce algún problema, errores de lectura durante una reconstrucción de discos o un fallo en la red, Panasas no descarta terabytes de información simplemente por que unos cuantos datos queden inaccesibles. Más bien, Panasas pone en cuarentena los datos dañados sin interrupción de acceso al resto de información", explica Gibson.

Pero la pregunta es: ¿Se verá este tipo de estructura de archivos paralelos en los entornos corporativos? "Panasas seguirá desarrollando sistemas I/O de alta velocidad para los entornos de supercomputing", apunta Tom Trainer, analista de Evaluator Group. "Es un nicho muy especializado que no ofrece una gran rentabilidad. Pero, al mismo tiempo, es una valiosa oportunidad que compañías como EMC e IBM están desaprovechando". "Panasas y BlueArc reconocen que los esfuerzos realizados en supercomputación están empezando a dar frutos en los entornos corporativos", añade Trainer, quien asegura que "la cantidad de datos está creciendo de forma exponencial.

Por ejemplo, las compa-ñías bancarias o emisoras de tarjetas de crédito necesitan la información instantánea de las cuentas del cliente para detectar los posibles fraudes.

Los superordenadores están empezando a entrar en los centros de datos y, a medida que esta tendencia crezca y se generalice, sólo unos cuantos proveedores estarán en posición de suministrar los requerimientos de estos 'monstruos' de datos".

Balthazar, de 451 Group, defiende otra opinión: "La tecnología de cluster que existe actualmente es propietaria.

El nuevo estándar PNFS propiciará la entrada de esta tecnología en el espacio empresarial. Pero por el momento, los sistemas esta limitada a mercados nichos como HPC".

La escalabilidad es la clave del crecimiento

El almacenamiento en cluster es la norma en los entornos de High Performace Computing (HPC). Hace seis años, momento en el que hicieron su aparición en el mercado los clusters, los sistemas tradicionales de almacenamiento no vinculados representaban el 80 por ciento del mercado HPC.

Hoy todo ha cambiado y de forma drástica. Los sistemas cluster, en el primer trimestre de 2006, ya contaban con el 52 por ciento del mercado, una cifra que sigue en crecimiento, según IDC. De hecho, actualmente, ya han superado el 60 por ciento.

El almacenamiento en cluster conecta varios servidores que forman un anillo de dispositivos. Estos sistemas normalmente realizan múltiples peticiones de lectura/grabación a través de líneas paralelas. Los antiguos cuellos de botella I/O propios de los sistemas de líneas únicas desaparecen con este modelo. El nuevo conjunto de software proporciona accesos instantáneos a contenidos digitales.

Además del aumento de velocidad, ¿cuáles son las ventajas de un sistema en cluster frente a los sistemas tradicionales de una SAN modular o un sistema NAS?

Hay tres ventajas principales:

En primer lugar, este modelo permite escalar el ancho de banda de I/O en función de la necesidad de las aplicaciones que utilizan datos de forma intensiva, como las financieras, de biotecnología y de contenidos multimedia digitales.

En segundo lugar, la gestión de estos sistemas se simplifica porque, incluso cuando aumenta la capacidad, sigue siendo un solo sistema y no múltiples arrays de una SAN.

Por último, el almacenamiento en cluster es altamente modular, lo que permite añadir componentes a medida que sean necesarios. Y con esta agregación de componentes, el rendimiento y la capacidad aumentan.

Isilon Systems ofrece un cluster automatizado inteligente con su propio sistema operativo OneFS, basado en FreeBSD de códigos abiertos. Rackable Systems, Hitachi Data Systems, Exanet y Network Appliance son otros proveedores de sistemas de almacenamiento en cluster que merece la pena destacar.

ShareThis

Publicidad

Publicidad

Publicidad

Opinión

Francisco José Fernández Romero, socio-director de Cremades Calvo Sotelo Sevilla

Riesgos a los que se exponen las empresas TIC sin una política de cumplimiento

El compliance tecnológico es una herramienta jurídica clave para evitar no solo sanciones, sino pérdidas financieras y de reputación y daños económicos a terceros, defiende en esta tribuna Francisco José Fernández Romero, socio-director de Cremades & Calvo Sotelo Sevilla

Soluciones

Seresco participa en el proyecto CIP - Olive para el cultivo eficiente de olivares en Egipto

Seresco participa, junto a empresas españolas y de Egipto, en el proyecto CIP - Olive de agricultura de precisión, financiado por el CDTI y el ITIDA egipcio, que contempla el desarrollo de un sistema integrado de IoT basado en la nube y que permitirá controlar los principales problemas que se presentan en los olivares, como son plagas e infecciones

techWEEK info

TechWEEK forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, Strategic Partner, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2020 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de techWEEK.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de techWEEK.es

Procesando envíos...

Envío de artículos por email de techWEEK.es

Email enviado. Cerrar

Envío de artículos por email de techWEEK.es

Error en el envio. Pulse aqui para cerrar.Cerrar