El instrumento científico más potente del mundo
El CERN ha superado los retos en transferencia de datos para su proyecto Large Hadron Collider, en el que se emplean servidores basados en Itanium 2 y Xeon.
Acelerador de partículas
Intel ha anunciado que el CERN, la Organización Europea para Investigación Nuclear, ha realizado con éxito una serie de simulaciones sobre el flujo del calor alrededor de enormes detectores subterráneos de partículas, que se están instalando en estos momentos como parte del proyecto para la construcción de un Gran Colisionador de Hadrones (Large Hadron Collider, LHC), una iniciativa en donde se utiliza un cluster de servidores potentes basados en procesadores Intel Itanium 2.
El LHC es un amplio acelerador de partículas de 27 Km. de circunferencia que podría estar en funcionamiento en el año 2007, un proyecto que tiene como objeto proporcionar el mayor instrumento científico del planeta. Además, este mismo cluster informático avanzado se ha utilizado para ayudar al CERN a superar los límites en transferencia continua de datos a alta velocidad.
Dentro de los retos para la transferencia permanente de datos, el CERN ha demostrado que el sistema basado en tecnología Intel puede exportar datos a una media de 600 MB por segundo durante 10 días a su red de laboratorios situados en todo el mundo, siendo ésta la mayor tasa de transferencia de datos obtenida hasta la fecha. Este resultado representa un paso adelante en la simulación sobre el rendimiento máximo que precisa el LHC Computing Grid, que necesita distribuir datos a 1.500MB por segundo de forma constante durante más de una década, para analizar esta información en más de 150 centros informáticos repartidos por todo el mundo.
Los datos, que consisten en imágenes de los resultados de la colisión de protones dentro de los detectores de partículas a, prácticamente, la velocidad de la luz, van a ser distribuidos a miles de físicos especializados en partículas durante varios años, para buscar señales sobre nuevas partículas y fenómenos que ofrezcan alguna pista sobre el origen del Universo.
Cluster basado en Intel Itanium 2
El cluster abierto del CERN es un sistema avanzado basado en procesadores Intel Itanium 2 desarrollado dentro del laboratorio abierto del CERN, una alianza del sector formada por Intel, HP, IBM, Oracle y Enterasys, para la prueba y validación de soluciones innovadoras en el entorno informático del CERN. De hecho, el cluster abierto se ha utilizado recientemente para optimizar el flujo de aire dentro de las cuevas del LHC en donde se albergan los enormes detectores subterráneos. Es más, el cluster abierto permitió a los ingenieros del CERN, que se encontraban sometidos a una gran presión para obtener simulaciones esenciales, contar con más recursos informáticos convencionales.
Con la determinación de la temperatura alrededor de los detectores en una variedad de condiciones, los ingenieros pueden garantizar la seguridad y evitar los daños en componentes del detector de difícil acceso y gran sensibilidad. Como los detectores ya se han instalado este mismo año, la obtención con rapidez de resultados de la simulación se ha convertido en una tarea crítica; en este sentido, el cluster abierto basado en procesadores Intel Itanium 2 ha acelerado el proceso enormemente para los ingenieros del CERN.
En otro conjunto de pruebas diferentes en donde el cluster abierto del CERN transmite datos a través de redes de alta velocidad a siete laboratorios asociados en Europa y los EE.UU., el CERN y sus partners anunciaron que habían logrado transmitir de forma permanente una media de 600MB por segundo durante 10 días. Esto representa casi la mitad de la transferencia máxima de datos que necesita el LHC Computing Grid, la división que ofrece la infraestructura para los detectores del LHC.
Aún faltan dos años hasta que el LHC se encuentre en funcionamiento, pero los resultados son muy alentadores y muestran que el LHC Computing Grid se encuentra en buen camino para ofrecer la capacidad necesaria. Un elemento clave para garantizar el éxito de estas pruebas fue la alta fiabilidad y el rendimiento de I/O de los sistemas basados en tecnología de Intel en el cluster del CERN.
LHC Computing Grid al completo
El CERN y sus socios van a continuar mejorando estos resultados durante los próximos meses, incrementando los requisitos de pruebas para sistemas basados en procesadores Intel Itanium 2 e Intel Xeon, hasta que el LHC Computing Grid ofrezca el 100 por cien de su capacidad productiva. Para poner en perspectiva este nivel de datos, se estima que el total de datos producido por el LHC a lo largo de un año de funcionamiento va a superar los 15 Petabytes (millones de Gigabytes), lo que es comparable con el 1 por ciento de la producción estimada de información en todo el mundo que se genera hoy en día en formato digital y no digital.
“El LHC Computing Grid representa un avance muy interesante en informática científica,” ha afirmado Sverre Jarp, director técnico del laboratorio abierto del CERN. “El reto que representa la distribución y el mantenimiento de más de 15 Petabytes de datos en todo el mundo, y su análisis por una red a escala mundial formada por decenas de miles de CPUs, nos está obligando a romper los límites de la informática basada en clusters y los del networking de alta velocidad. La realización con éxito de pruebas en el cluster abierto del CERN, basado en plataformas con procesadores Intel Itanium 2 e Intel Xeon, nos garantiza que vamos a contar con la capacidad suficiente para registrar, procesar y explotar la enorme cantidad de información que generaremos.”
“El CERN tiene una gran tradición en liderazgo tecnológico y científico, tanto en sus trabajos en física avanzada como en la creación de la World Wide Web,” ha comentado Brian Harrison, vicepresidente y director general de Intel en la región EMEA. “Intel está encantada de que el CERN realice su proyecto bandera utilizando para ello plataformas basadas en procesadores Intel Itanium 2 e Intel Xeon. Estas plataformas informáticas basadas en tecnología de Intel no sólo ofrecen un rendimiento excelente en cálculo matemático, sino que también proporcionan mejoras en disponibilidad, fiabilidad y capacidad de ampliación. En Intel esperamos con impaciencia los resultados de la próxima etapa de pruebas en el LHC y otras investigaciones que realiza el CERN.”