Red de información TI para profesionales ITMedia NetWork

domingo, 19 de mayo de 2024
Actualizado a las 5:38


Búsqueda avanzada

Publicidad

Publicidad

Informes

Revelar los secretos de la materia

11 Junio 2007

La masiva potencia de proceso que proporciona el grid computing y el mayor acelerador de partículas del mundo nos van a permitir conocer mejor la materia y el universo.

Revelar los secretos de la materia

Revelar los secretos de la materia

Sólo faltan seis meses para que los físicos del CERN (Centro Europeo de Investigación Nuclear), y por extensión la comunidad científica, tomen posesión de una de las herramientas más deseadas: el mayor acelerador de partículas del mundo, conocido como LHC (Large Hadron Collider). Y como era de esperar, el proyecto va a ser uno de los mayores experimentos de todos los tiempos: el LHC, junto a una extensa y potente infraestructura grid, nunca antes desplegada, van a permitir estudiar la materia y el comportamiento de las partículas y, con ello, encontrar respuestas sobre el universo. Unas respuestas que sólo se obtendrán gracias a la mencionada red global de alta velocidad, que aglutina la potencia de 100.000 ordenadores, muchos de ellos PCs, imprescindibles para procesar las 'toneladas' de datos generados por el acelerador.

El universo esta constituido por partículas de materia de las que los científicos tienen todavía un conocimiento limitado. Conocer algo más de la composición de dichas partículas favorecerá la comprensión del propio universo, de su origen y de su evolución. El fundamento de esa infraestructura es el backbone de la red, de 10 Gbps, que interconectará 11 centros de supercomputación y data centers con centros de datos científicos, conformando la red grid de mayor envergadura.

El otro gran protagonista del experimento es el acelerador de partículas. "El LHC, un anillo subterráneo de 27 kilómetros de perímetro que consigue acelerar los protones hasta que alcanzan altísimas energías, que luego se van transmitiendo a base de choques entre ellos, provocando una especie de fuegos artificiales de partículas de materia. Entonces, por medio de unos sofisticados detectores, cada 25 nanosegundos recogemos las señales de las colisiones. Las velocidades con las que salen los datos de esos detectores para ser almacenados y procesados se mide en cientos de megabytes por segundo", nos explica Francois Grey, director de comunicaciones TI del CERN.

Además de nuevos conocimientos sobre la composición del universo, el proyecto LHC Grid Computing permitirá desarrollar una gran experiencia sobre el despliegue, funcionamientos, operación y gestión del mayor backbone 10Gbps desplegado hasta la fecha. "Todos, científicos y técnicos están observando la evolución de nuestra infraestructura. Nos hemos convertido en una referencia para otros grupos y entidades interesadas en disponer de capacidades de proceso de una envergadura que se está convirtiendo en imprescindible para abordar determinados proyectos en los que es fundamental tanto la potencia como redes de alta velocidad. Estamos aprendiendo mucho sobre transmisión de datos a alta velocidad y sobre la optimización de un grid de 10 Gbps", afirma Grey.

Cerca de 200 instituciones en 80 países, muchas de ellas con avanzados centros de datos, se integrarán en la red grid con el objetivo de lograr el proceso de los 15 petabytes de datos por año que genera el LHC. "Desde el principio fuimos conscientes de que iba a ser imposible almacenar y procesar ese volumen de información en CERN y, por eso, decidimos crear una potente infraestructura de computación distribuida que nos permitiera hacerlo", reconoce el técnico.

Infraestructura gris

La infraestructura grid se ha organizado en tres niveles: el CERN constituye el Tier 0 desde donde los datos se distribuyen a los 11 data centers de Europa, Norteamérica y Asia que forman el Tier 1. En el tercer nivel, el Tier 2, se encuentran más de 250 universidades e instituciones de todo el mundo, que actuarán como centros de investigación a los que accederán los científicos para analizar los datos que permanentemente recibirán.

La red Grid LHC conectará por fibra oscura los 11 centros Tier 1 a una velocidad de 10 Gbps, proporcionando la interconexión de los centros y redes de investigación. Además facilitará enlaces para redes públicas con el fin de que puedan incorporarse al proyecto participantes de Canadá, Taiwán y Estados Unidos. En concreto, los centros norteamericanos Tier 1 son el Fermi National Accelerator Lab de Illinois, el Brookhaven National Laboratory de Nueva York y el Triumph Laboratory situado en Vancouver, Canadá.

Hay que destacar que por la naturaleza de los procesos, los ordenadores personales conectados a red grid no tendrán que comunicarse a tan altas velocidades, gracias a que se utilizará un middleware específico que consigue trivializar el proceso paralelo, según Grey. Para ello, exiten detectores que captan una imagen de las colisiones y las analizan de acuerdo con determinados patrones. "Cada colisión es independiente de la siguiente y eso nos permite realizar el proceso paralelo", explica Grey.

En el CERN, PCs, servidores y sistemas de almacenamiento están conectados a través de una red un Gigabit basada en conmutadores HP ProCurve. Además de esto, el propio CERN aportará unos 10.000 de los más de 100.000 procesadores que se utilizarán para el proyecto. En total estamos hablando de unos 8.000 sistemas con procesadores de simple y doble núcleo. La infraestructura estará gestionada por una versión de Linux denominada Scientific Linux CERN.

Los PCs utilizados en CERN son de lo más comunes, con marcas tan clónicas como Scotland Electronics y la, algo más conocida internacionalmente, británica Elonex. "En el CERN compramos equipos en cualquier país y a los precios más reducidos. Nuestras aplicaciones se ejecutan en proceso paralelo, aunque lo hagan en máquinas independientes. Por eso, si uno de los PCs falla, sólo hay que sustituirlo y seguir la tarea donde nos quedamos", reconoce David Foster, responsable de sistemas del CERN.

"Nuestro servidor medio es una máquina con procesador dual apilado en rack de 19 pulgadas'', afirma Helge Meinhard, coordinador técnico del área de servidores en CERN. Aunque la mayoría de los 8.000 servidores son monoprocesadores y con chips de un único núcleo, el centro dispone ya de unos 750 biprocesadores y dual-core. La administración de todos los equipos se realiza a través de un proceso batch que identifica las unidades disponibles y asigna las tareas a cada una.

En cuanto a la electrónica de red, está basada en sistemas HP ProCurve. Entre ellos, hay que destacar los conmutadores: 600 unidades de ProCurve 3400cl, 400 del modelo ProCurve 3500yl y 20 más de la serie 5400. Todos ellos conectan los miles de equipos procesadores del CERN a una red de un Gbps, y enlazan ésta a 10 Gbps al backbone de la infraestructura grid. La red utiliza básicamente fibra óptica, aunque también hay segmentos con UTP Categoría 6 para los enlaces de la red de un Giga. Finalmente, 16 routers 10 Gbps de Force10 Networks enlazan el backbone del CERN a otros participantes del grid.

En opinión de los responsables de TI del centro europeo, se eligieron los mencionados equipos y tecnologías de HP y Force10 Networks por su funcionalidad, efectividad y coste. "Además hay que resaltar la iniciativa y el interés de HP en colaborar con nosotros y afrontar los desafíos de un proyecto de tanta envergadura, incluso a nivel de ingeniería," reconoce Foster. Las funcionalidades más apreciadas en los equipos de HP son seguridad y facilidad de administración.

Los ingenieros de HP han conseguido simplificar la gestión de todos los dispositivos del CERN, habilitando distintos tipos de funciones bajo el estándar SNMP. "Un estándar que nos ha permitido 'tomar permanentemente la temperatura' de los conmutadores vía SNMP y configurarlos usando SNMP", destaca Pierre Bugnon, director de cuentas de HP en Ginebra.

"Tenemos que asegurarnos de que podremos seguir trabajando con HP en el futuro y de que la compañía sigue abierta a colaborar con nosotros en éste y en otros proyectos. El grado de relación al que hemos llegado y los planes de evolución de sus tecnologías encajan perfectamente con los nuestros", afirma Grey.

Victor Svensson, responsable de de-sarrollo de negocio de HP en Grenoble, reconoce que "el CERN es un cliente muy importante para HP, al que estamos proporcionando un nivel de soporte muy alto. Una atención que supera el soporte técnico para convertirse en colaboración estratégica entre las dos organizaciones".

La aplicación de estándares por parte de HP ha sido una de las claves de todo el proyecto. "El uso de estándares era uno de los requerimientos más importantes del CERN y ha sido una de los argumentos que ha jugado a nuestro favor a la hora de la toma de decisiones", afirma Svensson.

"El CERN no quería complicaciones con aplicaciones y desarrollos propietarios. Utilizamos a muchos proveedores que ofrecen muy diferentes soluciones y todas han de ser capaces de interoperar sin problemas", destaca Bugnon.

En el momento que la infraestructura esté operativa, una comunidad de más de 7.000 científicos analizarán permanentemente montañas de datos, buscando pruebas del bosón de Higgs, del que nadie aún ha encontrado vestigios; o de las teóricas partículas supersimétricas.

Aunque nadie la haya visto el bosón de Higgs, los científicos aseguran que identificarla conseguiría explicar las razones de por qué un protón tiene una carga positiva y un electrón tiene una carga negativa.

Según los planes del CERN, las experiencias empezarán en noviembre con la circulación de los primeros haces de protones a bajos niveles de energía. A mediados de 2008 empezarán a realizarse colisiones de partículas a alta velocidad. La comunidad científica ha estado esperando una máquina como el LHC desde principios de los años 80. Entre 1989 y 2000, CERN ha dispuesto del Large Electrón Positron Collider desde hace tiempo los investigadores han luchado para que se reutilizara su anillo para construir otro acelerador de mayor potencia.

A través de telescopios, incluyendo el Hubble, sólo se puede observar un tres por ciento de la materia que compone el universo, el 97 por ciento restante sigue siendo un misterio. "Existe mucha potencialidad en avanzar en la física de partículas y en conocer más sobre la composición de la materia. La supersimetría, la teoría que relaciona las propiedades de los bosones y los fermiones, es una de las más interesantes. Esperamos encontrarlas, aunque suene tan teórico como esotérico. Es fundamental porque se trata de entender el universo", rubrica Grey.

El middleware es la argamasa que mantiene la unidad de todos los elementos del proyecto y el que posibilita la captura y análisis de los datos: "es una capa de software que nos permite realizar el análisis de la información independientemente de la ubicación de los datos, de los sistemas y de las infraestructuras".

El middleware optimiza la utilización del grid gracias a elementos, como los gestores de recursos, que determinan en cualquier momento qué centros de datos son los que disponen de capacidad suficiente para realizar una determinada tarea; y lo mismo para los subsiguientes análisis.

Los trabajos que el middleware distribuye a los centros de procesos se pueden clasificar en tres categorías: "pueden tratarse de una simulación de interacciones físicas en el detector; reconstrucción de señales reales o de datos simulados; o análisis físicos, en los que se determina estadísticamente el resultado de diferentes posiciones", explica Meinhard. Asimismo, el middleware implementa la autorización y autenticación como medida de protección, para asegurar que solamente las instituciones de investigación vinculadas al proyecto puedan obtener el acceso a la infraestructura grid," dice Grey.

El middleware, que representa más de un millón de líneas de código open source creadas con Globus Toolkit y cuya estabilidad exige un permanente esfuerzo de mejora,

Algo sobre la física de partículas

Según la física de partículas, la materia está formada por fermiones -a su vez divididos en quarks y leptones-, mientras que las partículas que transmiten las cuatro fuerzas fundamentales de la naturaleza -gravedad, interacción nuclear fuerte, interacción nuclear débil y electromagnetismo- son bosones. Puesto que se cree que las cuatro fuerzas estuvieron unidas al comienzo del universo, la supersimetría intenta explicar el porqué de esa separación y forma parte de la 'Teoría del Todo'. Según esta teoría, a cada partícula le corresponde una compañera supersimétrica, de forma que cada bosón tiene una compañera fermión y viceversa. Las compañeras supersimétricas de los fermiones son bosones y reciben nombres que comienzan con la letra s, así el electrón tiene como compañera el selectrón, y los quarks, los squarks. Las compañeras de los bosones son fermiones con nombres que terminan en -ino, así la del fotón es el fotino y la del gravitón, el gravitino.

Debido a la separación de las cuatro fuerzas, las compañeras supersimétricas, si existen, tendrían masas enormes, lo que explica que no se observen fácilmente en la naturaleza. Algunas partículas supersimétricas, como el neutralino, podrían explicar el problema de la materia oscura del universo.

ShareThis

Publicidad

Publicidad

Publicidad

Opinión

Julio Campoy, Regional VP Broad Markets en Appian

El Data Fabric, clave para impulsar la digitalización del sector público

La digitalización de las organizaciones públicas es una cuestión crucial en un mundo cada vez más conectado y avanzado tecnológicamente. Para Julio Campoy, vicepresidente de Appian, una transformación esencial para facilitar y simplificar tanto los procesos internos como para los que se dirigen a los ciudadanos y en la que el Data Fabric cobra singular importancia

Soluciones

DXC desarrolla una solución para Oxfam Intermón sobre la plataforma de Servicenow

Dentro de su compromiso con el voluntariado y la innovación social, DXC Technology ha desarrollado de manera altruista para la ONG Oxfam Intermón, que trabaja en 86 países para acabar con las desigualdades, una ‘solución digital de derechos humanos’, que facilitará a distintos tipos de empresas gestionar y cumplir los requisitos de diligencia debida en materia de derechos humanos y medioambientales, aplicada en múltiples legislaciones

techWEEK info

TechWEEK forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, Strategic Partner, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2024 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de techWEEK.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de techWEEK.es

Procesando envíos...

Envío de artículos por email de techWEEK.es

Email enviado. Cerrar

Envío de artículos por email de techWEEK.es

Error en el envio. Pulse aqui para cerrar.Cerrar