Concepto de un centro de datos espacial.

Concepto de un centro de datos espacial. Thales Alenia Space Omicrono

Aviación y Espacio

Centros de datos espaciales alimentados con energía solar: el ambicioso plan que tiene Google para acelerar su IA

El Proyecto Suncatcher busca probar satélites alimentados por energía solar, equipados con TPUs y conectados mediante enlaces ópticos en el espacio libre.

Más información: Así afectará la próxima gran tormenta solar a la Tierra: "Será mucho peor que el apagón que sufrió España en abril"

Publicada

Construir centros de datos en órbita se ha convertido en la nueva carrera espacial para las grandes compañías tecnológicas. Empresas como SpaceX, de Elon Musk, o Nvidia ya barajan esta idea. A ellas se les une ahora Google, que acaba de presentar su ambicioso 'Proyecto Suncatcher'.

Sundar Pichai, consejero delegado de Google, ha anunciado a través de X el 'Proyecto Suncatcher', que busca equipar constelaciones de satélites alimentados por energía solar con TPU de la generación Trillium —unidades de procesamiento tensorial, diseñadas para inteligencia artificial (IA)— y enlaces ópticos de espacio libre.

Google explica en un comunicado que la inteligencia artificial se ha convertido en una tecnología fundamental que podría transformar el mundo, "impulsando nuevos descubrimientos científicos y ayudándonos a afrontar los mayores desafíos de la humanidad".

Para aprovechar todo su potencial, y ante la limitación de recursos en la Tierra para alimentar sus necesidades energéticas, la compañía quiere aprovechar la mayor fuente de energía del sistema solar: el Sol, que emite más de cien billones de veces la producción total de electricidad de la humanidad.

"En el futuro, el espacio podría ser el entorno ideal para escalar la computación de IA", señala Google. Según la compañía con sede en Mountain View (California), el enfoque de su 'Proyecto Suncatcher' "tendría un enorme potencial de escalabilidad y, además, minimiza el impacto en los recursos terrestres".

El 'Proyecto Suncatcher'

En un artículo publicado recientemente, Google ha esbozado sus planes para este ambicioso proyecto: la compañía se centrará en un diseño modular de satélites interconectados más pequeños y con el que dice "sentar las bases para una futura infraestructura de IA espacial altamente escalable".

"Como cualquier proyecto ambicioso, requerirá que resolvamos numerosos desafíos de ingeniería complejos", ha señalado Sundar Pichai. El directivo ha indicado que las primeras investigaciones mostraron que las TPU de generación Trillium de Google "resistieron sin daños las pruebas realizadas en un acelerador de partículas".

Proyecto Suncatcher.

Proyecto Suncatcher. Sundar Pichai/X Omicrono

Un ensayo que ha servido "para simular los niveles de radiación de la órbita terrestre baja". El gigante tecnológico explica que el diseño del sistema propuesto es una constelación de satélites interconectados, que probablemente operen en una órbita terrestre baja heliosíncrona con iluminación al amanecer y al atardecer.

Así los satélites estarían expuestos a luz solar casi constante, por lo que dicha elección orbital maximizaría la captación de energía fotovoltaica y reduciría la necesidad de baterías a bordo de gran tamaño, según Google. Sin embargo, para que "este sistema sea viable, deben superarse varios desafíos técnicos".

El primero de ellos es lograr enlaces intersatelitales a escala de centro de datos. Google explica que las cargas de trabajo de aprendizaje automático a gran escala requieren la distribución de tareas entre numerosos aceleradores con conexiones de alta velocidad y baja latencia.

Para lograr un rendimiento comparable al de los centros de datos en la Tierra, "se necesitan enlaces entre satélites que admitan decenas de terabits por segundo. Nuestro análisis indica que esto debería ser posible con transceptores de multiplexación por división de longitud de onda densa (DWDM, por sus siglas en inglés) multicanal y multiplexación espacial".

Diseño preliminar de los centros de datos espaciales de Starcloud

Diseño preliminar de los centros de datos espaciales de Starcloud Starcloud Omicrono

Para alcanzar esa comunicación inalámbrica de gran ancho de banda, el equipo planea hacer volar los satélites mucho más cerca entre sí de lo habitual (a kilómetros o menos), lo que permitiría una transmisión bidireccional de 1,6 terabits por segundo utilizando un único par de transceptores, como han demostrado las pruebas de laboratorio.

Otro de los desafíos técnicos pasa por controlar grandes formaciones de satélites agrupados densamente y es que los enlaces intersatelitales de alta velocidad requieren que estos operen en una disposición mucho más compacta que cualquier otro sistema actual.

En este diseño, los satélites operan a solo unos cientos de metros entre sí y se mantiene la formación usando modelos numéricos avanzados, que consideran la dinámica orbital y las perturbaciones causadas por la gravedad y la atmósfera.​

A altitudes cercanas a los 650 km, las simulaciones muestran que basta con realizar maniobras de mantenimiento de posición modestas para conservar la estabilidad de la constelación y garantizar las comunicaciones seguras y rápidas entre todas las unidades.

Diseño preliminar del centro de datos espacial

Diseño preliminar del centro de datos espacial Starcloud Omicrono

El tercer reto al que se enfrenta Google es la tolerancia a la radiación de los TPU. Para que las unidades de procesamiento tensorial sean efectivas en el espacio, deben soportar las condiciones de la órbita terrestre baja. En los ensayos, Trillium, la TPU en la nube v6e de la firma, ha mostrado "resultados prometedores" con un haz de protones de 67 MeV para evaluar el impacto de la dosis ionizante total y las alteraciones de eventos únicos.

Por último, Google tiene que hacer frente a la viabilidad económica y los costes de lanzamiento, ya que históricamente han sido un obstáculo para los sistemas espaciales a gran escala. En análisis realizados por la compañía se sugiere que, a mediados de la década de 2030, el coste de lanzar cohetes podría reducirse a menos de 200 dólares por kilogramo (unos 174 euros al cambio).

Un prototipo para 2027

El análisis inicial de Google ha mostrado que no existe ninguna ley física o limitación económica insalvable que impida la computación basada en aprendizaje automático en el espacio. No obstante, la firma es consciente de que existen otros retos de ingeniería, como la gestión térmica, las comunicaciones terrestres de alta velocidad y la fiabilidad del sistema en órbita.

Para afrontarlos, Google ha confirmado que su próximo paso será una misión conjunta con Planet Labs para lanzar dos satélites prototipo a principios de 2027. Este experimento servirá para evaluar el desempeño de los modelos de aprendizaje automático y el hardware TPU en el espacio, además de verificar la viabilidad de enlaces ópticos intersatélite para tareas de aprendizaje automático distribuido.

Interior de un centro de datos.

Interior de un centro de datos.

A largo plazo, las constelaciones de satélites capaces de operar a niveles de energía de gigavatios podrían contar con un diseño que combinaría nuevas arquitecturas computacionales pensadas para el espacio y una estructura mecánica que vincule de forma estrecha la captación de energía solar, la ejecución de cálculos y el control térmico.

La idea de colocar centros de datos en el espacio podría ayudar a Google tanto a satisfacer la demanda de computación como a reducir su huella de carbono en la Tierra, ya que estas instalaciones aumentan las emisiones de gases de efecto invernadero. Además, otra ventaja es que pueden funcionar 24 horas con energía solar, mientras que los centros de datos terrestres pierden energía por la noche y la producción disminuye de forma significativa en invierno.