La multinacional japonesa presentó ante la prensa especializada madrileña su nuevo concepto de supercomputación llevada a la empresa en un equipo capaz de albergar en un solo bastidor estándar hasta 168 nodos, 12.000 cores, 64 MB de memoria y hasta 500 teraflops de coma flotante. Para hacerse una idea aproximada, a mediados de los años 90 se necesitaban para alcanzar la cifra de 11 petaflops de cálculo una habitación con más de 800 racks en paralelo; hoy con este equipo recién presentado en la feria ISC de Fráncfort (Alemania) solo haría falta un armario con 22 racks.
“Es un verdadero Samurai de la supercomputación con tecnología japonesa, fabricación germana y la espada templada de los Intel Xeon de segunda generación”, señaló Juan Antonio García, director de Desarrollo de Negocio HPC & Analytics de Fijitsu. “Este dispositivo no es un paso más en las tecnologías HPC, es un gran salto revolucionario, único en el mercado con esta densidad de 8 nodos en un factor 2U que multiplica por seis el rendimiento de cualquiera de la competencia. Pero lo mejor de todo es que lo hace también de manera estándar, ya que por sus dimensiones es compatible con los centros de datos actuales (solo que debe ser accesible por delante y por detrás), y por su código máquina compatible con las especificaciones x86 que permite usar cualquier software estándar actual”.
Aparte de los mercados tradicionales en el ámbito universitario, científico y centros de investigación, el mercado industrial o energético para la simulación de productos y precios o el sector sanitario, farmacéutico o ciencias de la salud (genómica, proteómica…) este equipo con tan alta capacidad de cómputo en paralelo en tan poco espacio se convierte en el aliado perfecto para todo tipo de proyectos en el ámbito empresarial para analítica de datos, inteligencia artificial y aprendizaje inducido. “No se trata de tener la mayor potencia del mundo, sino de tener claro los trabajos a abordar para poder realizar las tareas en unos tiempos finitos”, especifica García.
Más alta densidad, menos Opex, menos TCO y menos huella de carbono, además de un mayor rendimiento por vatio. Esta es la ecuación que proponen los servidores Fujitsu Primergy CX600 M1, “una democratización del HCP”, señala Simón Viñals, director de Tecnología de Intel. “Ahora los proyectos llegan a la empresa, ideas y casos de uso que antes ni se planteaban porque resultarían carísimos de montar y con altas necesidades energéticas e infraestructuras, son más factibles. Las empresas que lo hacen se convierten en líderes, acortan el time-to-market de sus productos, sea una molécula o un coche, si antes tardaba dos años ahora lo puede hacer en dos meses”.
Los nuevos Xeon Phi suponen un cambio de factor de forma fundamental: antes era como un coprocesador en una bahía Xpress aneja, ahora es el principal core de la máquina, con la ganancia en rendimiento y fiabilidad. Utiliza el código máquina x86 y no la gráfica GPU, “lo que no tiene comparación, al poder acceder a todo el ecosistema creado de la empresa sin tener que migrar o hacer porting de código, sin cuellos de botella en la PCI, con una memoria integrada y omni-path”, explica Viñals sobre esta segunda generación de los Xeon Phi. “Pero sin software, los procesadores no se mejoran: si vectorizas los procesos y sigues un único hilo, solo ganas un poco de rendimiento; si escalas y paralelizas los procesos, ganas mucho más de rendimiento; pero si vectorizas y paralelizas a la vez en multi-hilo, el rendimiento se dispara a más de cien veces”.
La familia 72xx ya se encuentran disponibles, con unos precios que oscilan entre 2.438 y 6.254 dólares, según especificaciones. Permite escalar hasta 49 armarios y 8.208 nodos de cómputos en 168 racks, como el supercomputador que ya ha pedido la Universidad de Tsukuba y Tokio a Fujitsu le construya. “El HTC es como la Fórmula-1 de la industria informática, un circuito en donde las compañías se sienten retadas a superarse”, explica Adriano Galano, director de HPC & Big Data de Fujitsu. “Para 2023 o antes tenemos que tener construida la primera máquina que supere un exaflop (un millón de millón de millones de operaciones de punto flotante por segundo”.
¿Aplicaciones? El primero y fundamental, en el ámbito de la sanidad, para la secuenciación genética y la medicina personalizada. Se trata de poder prescribir el tratamiento idóneo a nuestra estructura genética particular. Sacar el genoma de cada paciente ocupa 200 GB de información, que hay que almacenar, comparar y analizar, cálculos que antes llevarían meses o semanas, se podrían realizar de un día para otro. Dinámica de fluidos, aeronáutica, información sísmica, predicciones meteorológicas… es un punto de inflexión.
Dell pretende que "las organizaciones puedan utilizar continuamente los últimos avances de IA en el…
Introduce cinco nuevas soluciones HPE Cray con arquitectura de refrigeración líquida directa y dos servidores…
Las entradas para acudir a este parque temático que defiende un turismo sostenible saldrán a…
Amplía la disponibilidad de actualizaciones y parches críticos para ambos sistemas operativo hasta agosto de…
Con esta actualización acelera las cargas de trabajo de Kubernetes para máquinas virtuales, bases de…
Su cometido pasa por consolidar y ampliar el ecosistema industrial en España y Portugal.