La ciudad alemana de Stuttgart lleva más de un siglo siendo sede de grandes compañías automovilísticas. Aquí nacieron en 1885 los motores Benz y al año siguiente los frenos de Robert Bosch. Enseñas ambas que siguen impulsando uno de los polos de automoción más importantes de Europa, junto a otras firmas como Porsche o Daimler (actual propietaria de Mercedes-Benz).
En los años ochenta, mientras estas empresas desarrollaban ideas cada vez más complejas, los avances tecnológicos empezaban a coger carrerilla. Diseños más aerodinámicos o carrocerías más resistentes requerían prototipos físicos que disparaban los presupuestos. Sobre la mesa se puso la alternativa de simularlos con computación.
El entonces ministro del estado de Baden-Württemberg, Lothar Späth, vio la oportunidad de convertir esta región en lo que ahora calificaríamos de hub digital. Para lograrlo, su objetivo era adquirir el ordenador más rápido del mundo, Cray-2, fabricado en Estados Unidos.
Tras visitar en Minneapolis a su artífice, Seymour Cray, convenció a su gobierno para que financiara la compra para un sector del que ya dependían 180.000 empleos. Así se gestó el primer pedido de un Cray-2 fuera de territorio estadounidense y Stuttgart empezó a aparecer en el mapa mundial de la supercomputación.
De Cray-2 sólo se fabricaron 25 unidades. Una de ellas se conserva como una pieza de coleccionista en las mismas instalaciones a las que llegó en 1986, tal y como pudo comprobar esta periodista in situ.
Cray-2 y su efecto contagio
Con sus cuatro procesadores vectoriales, esta máquina era capaz de alcanzar 1,9 gigaflops, lo que la convertía en la herramienta idónea para avanzar en los retos tecnológicos del momento en ámbitos como la aeronáutica o la energía nuclear. Y, por supuesto, realizar las primeras simulaciones de dinámica de fluidos que demandaban firmas como Porsche y Mercedes-Benz.
También cabe mencionar que su sistema de refrigeración por inmersión líquida con fluorinet (un líquido desarrollado por la norteamericana 3M que sustituía al sistema de refrigeración por aire convencional), supuso un importante punto de inflexión en los procesos de enfriamiento de este tipo máquinas.
Una de las 25 unidades que se fabricaron de Cray-2 se conserva en el HLRS.
Pero el efecto de Cray-2 fue más allá de su rendimiento y capacidades. Este salto tecnológico produjo un efecto contagio en la región: en 1995, universidad y empresas locales pensaron que sería buena idea compartir la experiencia y conocimientos adquiridos en sus horas de computación.
Con este fin, se creó la sociedad HWW (Höchstleistungsrechner für Wissenschaft und Wirtschaft, que en español significa Supercomputador de Alto Rendimiento para Ciencia e Industria).
Una fórmula de cooperación entre academia e industria poco explorada hasta ese momento, y germen para que al año siguiente se fundara el primer centro nacional de alta computación de Alemania, el HLRS (Höchstleistungsrechenzentrum Stuttgart), que DISRUPTORES - EL ESPAÑOL ha tenido ocasión de visitar esta semana.
Desde entonces, el HLRS no ha perdido el pulso a los avances tecnológicos y es uno de los tres pilares del Gauss Centre for Supercomputing (GCS), junto con los de Jülich y Garching. El próximo desafío es alcanzar la exaescala, un hito al que ya le han puesto fecha: 2027; y para el que lleva tiempo preparándose.
Rumbo a la exaescala
El director del HLRS desde 2003, Michael Resch, recuerda que la vocación original de este centro fue “ser un habilitador de soluciones, no un mero proveedor de servicios”. Un matiz no menor que menciona en el encuentro que mantiene con este medio, poco antes de la presentación oficial a una docena de periodistas internacionales de su última máquina, Hunter,
La forma de alcanzar esa vocación de "habilitador" ha sido trabajar de la mano de los usuarios “para mejorar sus códigos y exprimir toda la capacidad de los sistemas”.
Hunter, el último superordenador del HLRS.
Filosofía que ha guiado estos años la incorporación de innovaciones tecnológicas, “desde el cálculo secuencial al paralelo, de los procesadores propietarios a la arquitectura x86 y, ahora, de la CPU tradicional a la GPU”, repasa.
Este último salto impulsó la instalación a principios de 2025 del mencionado Hunter en el centro de datos de la Universidad de Stuttgart y en el mismo edificio al que llegó Cray-2 hace casi 30 años. Una sala similar a cualquiera de sus características, excepto por una alineación de racks en un llamativo color azul y un gran dibujo de la Tierra en el centro.
Por si había alguna duda, en letras grandes se puede leer su nombre: Hunter. Un equipo diseñado con la arquitectura Cray EX4000 de Hewlett Packard Enterprise (HPE), la misma que utilizan los sistemas exaescalares El Capitan (1.742 exaflops), Frontier (1.353) y Aurora (1.012), todos en Estados Unidos.
Además, la nueva máquina del HLRS está equipada con unidades de procesamiento acelerado (APU) AMD Instinct MI300A, lo que “obligará a optimizar buena parte del software industrial", admite Resch, porque "el rendimiento de x86 ya solo crece un 20% cada dos años”.
De la CPU a la GPU
La apuesta por GPUs —y no por más CPUs x86— llegó tras un procedimiento poco habitual: “Nuestro comité científico nos obliga a respaldar cada compra en tres grandes aplicaciones industriales, no en benchmarks de laboratorio”, subraya Resch, quien defiende que sólo las GPU ofrecían la aceleración requerida tanto para las cada vez más exigentes simulaciones cientificas como para las aplicaciones de la inteligencia artificial (IA).
Para entender el fondo de esta decisión, hay que detenerse en las cuestiones más técnicas: estas APU de AMD fusionan la CPU y la GPU en un único silicio y comparten memoria, “de este modo se eliminan las transferencias masivas de datos entre memorias separadas”, detalla el director de Arquitectura de IA y Web 3 en AMD, Jörg Roskowetz, también presente en la puesta de largo de Hunter ante la prensa tecnológica europea.
Detalle del sistema de refrigeración de Hunter.
Los motivos no dejan resquicio a la duda si se añade que la MI300A se basa en una “arquitectura de chiplets con apilamiento 3D”, que consiste en ensamblar y apilar verticalmente varios chips pequeños y especializados dentro de un mismo procesador. Lo que, en palabras de Roskowetz, “acorta distancias internas, mejora la eficiencia energética y disminuye la latencia en los centros de datos”.
“Además —apunta el directivo de AMD— las GPU convencionales incluyen aceleradores multimedia innecesarios en IA o HPC”, mientras que los nuevos chips se centran en “la multiplicación de matrices para IA y la multiplicación vectorial para HPC”. Todo esto permite que Hunter duplique la velocidad de su predecesor, Hawk, hasta un pico teórico de 48,1 petaflops consumiendo hasta un 80% menos de energía. Aspecto, este último, que se ha convertido en prioridad para los fabricantes y usuarios de estas infraestructuras.
“La inteligencia artificial ya consume en un año tanta electricidad como todo el mercado alemán y podría duplicarla antes de 2030 si no se rediseña el hardware”, advertía el directivo de AMD en referencia a la eficiencia energética de esta máquina, capaz de disipar hasta 400 kW por rack mediante refrigeración líquida y sin ventiladores.
Unas cualidades que le han llevado a Hunter a ocupar el puesto número 12 de la lista Green500 de las supercomputadoras más eficientes energéticamente del mundo y presentar su sistema de refrigeración como una de sus grandes innovaciones.
La carrera de la alta computación
Esta sucesión de cifras no son un mero detalle técnico. Hunter está diseñado específicamente para entrenar grandes modelos lingüísticos (LLM, por sus siglas en inglés), la creación de agentes autónomos e integrar la IA en simulaciones a gran escala que facilitarán los avances en áreas como la investigación de nuevos materiales, la biomedicina o la meteorología.
Un uso intensivo de la IA —y de los datos que la alimentan— que estuvo presente en el discurso del director del laboratorio de investigación de HPC e IA de HPE para EMEA, Utz—Uwe Haus: “Los sistemas que la procesan deben escalar sin perder rendimiento ni sostenibilidad”.
De ahí, recordó, que la arquitectura Cray EX naciera “para integrar totalmente la red y los nodos de cómputo, sin cables intermedios y con placas intercambiables”, de modo que cada componente pueda sustituirse sin interrupciones.
Pero continuar con los éxitos cosechados hasta la fecha de HLSR, y del resto de centros de supercomputación europeos, dependerá en gran medida, del “talento y políticas que aseguren que cada euro invertido se traduzca en ciencia y negocio”, según Haus.
Para explicarlo, usó ante los periodistas una metáfora automovilística: “Tener muchos coches de Fórmula 1 no resolverá los problemas de tráfico en Europa; necesitamos conductores capacitados, inversión en formación y una infraestructura que permita aprovechar al máximo estas máquinas de alto rendimiento. De lo contrario, corren el riesgo de infrautilizarse o quedar obsoletas”.
Mientras se solventan estas cuestiones, grandes compañías —como el fabricante de maquinaria Trumpf — y empresas de menor tamaño —como Seedbox.ai, especializada en soluciones de IA — ya están usando las capacidades de Hunter para mejorar la eficacia de sus procesos y acortar sus tiempos de desarrollo.
En realidad, un paso transitorio para preparase para esa ansiada exaescala de la supercomputación reservada a unos pocos. Un grupo exclusivo al que Stuttgart quiere sumarse con Herder, el sucesor de Hunter, y para el que ya se están construyendo unas instalaciones especialmente diseñadas para cuando esté listo. Algo que, si todo va como está previsto, será en 2027.
Datos para 'ver' y 'tocar'
Cuando se habla de datos a una le viene a la cabeza información que circula de un lado para otro de forma invisible y con la que los expertos trabajan en los grandes retos de nuestra sociedad. En el HLRS además se pueden 'ver', y casi 'tocar'.
En 2012 se construyó una sala CAVE (Cave Automatic Virtual Environment) para visualizar e interactuar con esos grandes conjuntos de datos. La ocasión no se podía desperdiciar y, tras ponernos unas gafas 3D, entramos en un cubo donde se crean entornos inmersivos de realidad virtual.
La sala CAVE se construyó en 2012 para sala CAVE para visualizar e interactuar con grandes conjuntos de datos
El suelo está compuesto por un vidrio de seguridad cubierto por una pantalla de retroproyección, mientras que las paredes y el techo están construidos con pantallas de plexiglás oscuro. El sistema de proyección está conectado en red a las supercomputadoras del centro de datos del HLRS.
Una vez dentro, un sensor óptico permite ampliar y reducir las imágenes. En el caso de la experiencia preparada para los periodistas, pudimos observar las instalaciones de la Universidad de Stuttgart a vista de dron —sensación de vértigo incluida cuando nos desplazábamos hacia abajo— y pasear por los viñedos al borde del Rin —en este caso con un movimiento era similar a montar en bicicleta—.
Lo que para nosotros fue un momento lúdico, para los investigadores es una herramienta fundamental con la que pueden observar las características de los conjuntos de datos a múltiples escalas, y modificar y actualizar los parámetros en tiempo real.
Esto último facilita comprobar los efectos de esos cambios y la optimización de modelos digitales de por ejemplo, dinámica de fluidos o planificación urbana. Uno de los ingenieros explica que una de sus aplicaciones es simular dónde se va a construir un edificio y visualizar cómo se va a comportar el viento cuando ocupe ese lugar y cómo va a afectar a su entorno.
Gracias a una mejora de su software en 2020, otros investigadores pueden acceder a esas visualizaciones de forma remota en pantallas 3D.