Michael M. Resch, director del primer centro nacional de alta computación de Alemania, el HLRS (Höchstleistungsrechenzentrum Stuttgart) desde 2003.

Michael M. Resch, director del primer centro nacional de alta computación de Alemania, el HLRS (Höchstleistungsrechenzentrum Stuttgart) desde 2003.

Centros tecnológicos ENTREVISTA

Cuando la ciencia pesa más que la soberanía digital: "Queremos la mejor máquina, no decidir por el origen del proveedor"

El director del primer centro alemán de supercomputación analiza con DISRUPTORES la oportunidad perdida de Europa.

Más información: La revolución del 'cúbit': una carrera entre ciencia y tecnología para alcanzar la supremacía cuántica

Stuttgart (Alemania)
Publicada
Actualizada

Michael M. Resch se mueve por los pasillos del High-Performance Computing Center Stuttgart (HLRS) con soltura y familiaridad, como si estuviera en su casa. Una actitud que inspira confianza en quien es, desde 2003, director de esta institución que puso a Stuttgart —y a Alemania— en el mapa mundial de la supercomputación.

El artífice de este logro fue Cray-2, el equipo más potente de su época, del que sólo se fabricaron 25 unidades. Una máquina que todavía conservan, no muy lejos de Hunter, el superordenador que el HLRS ha inaugurado en 2025 y con el que este centro pretende dar el salto a la exaescala.

“Cray-2 llegó para solucionar problemas de aerodinámica y termodinámica que se resolvían en túneles de viento y costaban una fortuna; Hunter demuestra que nada de eso sirve si no mejoras la eficiencia energética”, cuenta el directivo a DISRUPTORES - EL ESPAÑOL.

El lugar y el momento lo explican todo. En Stuttgart están Mercedes-Benz, Porsche y una gran mayoría de su red de proveedores. Cuando el HLRS abrió sus puertas en 1996, ambas firmas ya experimentaban con simulaciones por computación.

Resch, entonces investigador, vio claro que debían ir más allá de repartir horas de cómputo. “Nuestro objetivo era ser un habilitador de soluciones, sentarnos con los ingenieros, mejorar sus códigos línea a línea y encontrar junto a ellos cómo exprimir el sistema al máximo”, recuerda.

La soberanía perdida 

La inteligencia artificial añade ahora más presión, y se suma la de índole geopolítica por liderar el mercado global de los chips. Inevitable plantear a Resch este asunto, uno más de los campos de batalla de los bloques que lideran el orden mundial. 

El director del HLRS ni siquiera hace amago de esquivar la cuestión sobre el papel de Europa en esta contienda. Casi al revés, se siente cómodo hablando de ello y no tarda en verbalizar sus primeras críticas sobre la Ley Europea de Chips, que “llegó tarde”.

“En los 70, Europa fue competitiva; pero en los 80 muchas empresas decidieron que el hardware no era rentable y abandonaron el mercado”. Volver ahora es caro y complejo. “Una fábrica cuesta 16.000 millones de euros, pero el dinero no lo es todo, nos faltan profesionales con al menos 20 años de experiencia”, señala.

En el caso del centro de supercomputación de Stuttgart, usan tecnología alemana, taiwanesa y estadounidense. "Nunca tomaremos decisiones condicionadas por la nacionalidad de un proveedor mientras no exista una directriz política”, defiende contundente. “Nuestro objetivo es ofrecer a la ciencia y a la industria la mejor máquina posible”.

Para entenderlo, hace un paréntesis y describe la cadena de valor: los láseres EUV se fabrican en Alemania (Trumpf y Zeiss), las litografías en los Países Bajos (ASML), la producción se reparte entre Taiwán (TSMC) y Corea del Sur (Samsung) y en sistemas dominan Lenovo, NEC, Atos y HPE.

Su enumeración incluye a los proveedores de GPU. “Hoy sólo hay dos. AMD y Nvidia; Intel todavía busca su lugar tras años anunciando fábricas que no terminan de llegar

China en la bancada

En su opinión, China es el espejo en el que Europa debe mirarse: “Han gastado decenas de miles de millones, han formado gente muy capaz y aún no tienen un procesador competitivo en la gama alta. Lo que demuestra que ser un actor relevante en este mercado no es un ejercicio fácil”.

A todo ello, añade la barrera del software y construye un símil con los equipos domésticos. “Si diseñas un procesador nuevo, más vale que ejecute Windows, porque es el sistema operativo que todos tenemos. Mucha gente dice: ‘Hagamos Linux, es más europeo’".

"¿Usarías Linux?", plantea de forma retórica. "Probablemente no, porque estás acostumbrado a Windows y conoces su funcionamiento". Así de sencillo..

Para Resch el desafío es más cultural que técnico por “el rechazo de los usuarios a los cambios de interfaz”. Lo desconocido, al menos en Europa, genera altas cotas de duda e incertidumbre.

Fusión con la IA

Una incertidumbre que también arroja el efecto que la inteligencia artificial tendrá sobre el trabajo de laboratorio. “Cambiará la forma de trabajar de nuestros usuarios”, vaticina.

Asume que no sustituirá la simulación, pero sí veremos una fusión en la que "a veces la IA será mejor y usaremos la simulación para verificar; y en otras, la simulación será mejor y la IA ayudará a entender datos o a mejorarla”.

En cuanto al hardware, explica que la inteligencia artificial no necesita 64 bits; la simulación sí. “Para IA vendes millones de chips; para simulación, cientos de miles”. Por eso ya están trabajando con AMD y Nvidia para desarrollar “el procesador perfecto para IA que también sirva para simulación”. Todo un reto.

En esta vertiginosa y acelerada transformación tecnológica asoma en la conversación “el elefante en la habitación”, la computación cuántica.

“Llevamos cinco o seis años trabajando con ella, pero ahora mismo no nos planteamos invertir 15 millones de euros en un sistema pequeño y poco productivo”. Mientras llega ese salto cuántico, acceden a las máquinas que ya existen y observan su evolución desde la barrera.

Pero, ¿qué pasará cuando madure? Contesta sin vacilar: “no sustituirá a GPU o CPU, pero sí abrirá la puerta a la resolución de problemas que hoy ignoramos por imposibles; mientras las máquinas clásicas seguirán mejorando aviones, coches y maquinaria”.

Resolver problemas

El momento actual confirma muchas de sus afirmaciones e intuiciones. La industria mundial de los semiconductores creció un 19% en 2024 hasta 627.000 millones de dólares y aspira a rozar los 700.000 millones en 2025 con la IA como gran motor.

Europa reaccionó con su Ley de Chips y con proyectos que van y vienen —la cancelación de la fábrica de Broadcom en España, el frenazo de varios planes de Intel—, al tiempo que trata de reforzar sus puntos fuertes, como el monopolio de ASML en EUV.

En Stuttgart, la respuesta se llama Hunter: un superordenador para entrenar grandes modelos multilingües, crear agentes autónomos y sumar la IA a la simulación para acelerar la ciencia sin disparar la factura energética.

Resch retoma la idea con la que comenzaba esta entrevista: al HLRS como servicio y puente entre investigación, empresa y universidad. “No somos un gran laboratorio nacional de EEUU, con 500 millones para convencer a un proveedor de que desarrolle y fabrique una tecnología. Tenemos que escuchar al mercado y elegir lo que funciona”.

2027 ya está marcado en rojo en su calendario. El objetivo es que este centro de la Universidad de Stuttgart forme parte del “club de la exaescala” con Herder, el sucesor de Hunter.

Eso sí, sin obsesionarse con los teraflops.“El superordenador no es el fin, es el medio. Lo importante es que un físico, un químico o un ingeniero resuelvan mañana un problema que hoy parece imposible de solucionar”.

Del cálculo secuencial a la GPU

En su repaso a la evolución de los centros de supercomputación en los últimos 30 años, Michael M, Resch no habla en ningún momento de renovar el hardware, prefiere referirse a los saltos tecnológicos como “cambios de estadio”.

Cuenta que la primera gran transición se produjo cuando se pasó del cálculo secuencial a la computación paralela; y la segunda con la llegada del sistema x86 en 2011.

La tercera es la que este año protagoniza Hunter con la migración de CPU a GPU, “no por el pico teórico”, recalca, “sino por el rendimiento real de aplicaciones a gran escala y no en benchmarks de laboratorio”, tras evaluar tres códigos de usuario con el comité científico

Además, señala que la ley de Moore, que estableció un ritmo de duplicación de rendimiento de procesadores cada 12 o 18 meses, ya no se cumple. “Hoy el salto se multiplica por 1,2 cada dos años, con precios al alza y un duopolio en fabricación concentrado en TSMC y Samsung”. Situando el próximo “cambio de estadio” en 6 u 8 años y la incógnita de qué arquitectura prevalecerá.