El despliegue acelerado de la inteligencia artificial está revelando una dimensión crítica de su progreso: la enorme demanda de energía y, en menor medida, de agua que exige su infraestructura.

A medida que los centros de datos se expanden y la IA se integra en más procesos del día a día, aumentan los interrogantes sobre la viabilidad práctica y la sostenibilidad de este crecimiento.

Con un cambio estructural en la demanda de electricidad, ¿cómo puede satisfacerse el apetito energético de la IA sin provocar un repunte de las emisiones de carbono? ¿Cómo pueden refrigerarse los centros de datos sin agotar los recursos hídricos en regiones que suelen ser áridas?

En el ámbito energético, el desafío es profundo. Los centros de datos están remodelando la demanda eléctrica y se han convertido en uno de los principales motores del consumo. Nuestras previsiones apuntan a que, para 2030, podrían representar más del 20% del uso total de energía en Estados Unidos.

Este incremento tendrá un impacto directo y temporal en las emisiones de carbono, cuyo volumen exacto es difícil de medir porque depende tanto del aumento de generación a partir de combustibles fósiles como de las mejoras de eficiencia que la propia IA introduzca en los sistemas energéticos y en la economía en su conjunto.

Ante esta presión, lejos de relajar sus compromisos climáticos, los grandes operadores tecnológicos están firmando un número récord de acuerdos con proveedores de energía renovable, ampliando su participación en el almacenamiento eléctrico y fomentando una nueva ola de inversiones en energía nuclear, incluidos reactores modulares pequeños.

La expansión de la IA exige más que nuevas fuentes de energía limpia, sino también una mejora sustancial en la eficiencia de los centros de datos. La industria de chips está desarrollando arquitecturas que aumentan la potencia de computación al tiempo que reducen el consumo de energía.

Estas mejoras, junto con innovaciones en sistemas de refrigeración avanzada, diseño modular y controles automatizados, permitirán mejoras significativas en eficiencia energética.

El segundo gran desafío de la IA en cuanto a sostenibilidad es el agua. La IA requiere grandes volúmenes hídricos para la fabricación de chips, la refrigeración de centros de datos y la generación eléctrica. Un único centro de gran escala puede llegar a consumir hasta 6,81 millones de metros cúbicos al año, una cifra equivalente a la de una ciudad de tamaño medio.

Paradójicamente, la disponibilidad de energía y los incentivos fiscales han concentrado muchos centros de datos en zonas con estrés hídrico, lo que está provocando tensiones con comunidades locales y eleva el riesgo de que proyectos futuros enfrenten mayores obstáculos regulatorios.

Los métodos de refrigeración ilustran bien la complejidad del problema. Las soluciones basadas en refrigeración líquida y evaporativa mejoran la eficiencia energética, pero incrementan de forma notable la demanda de agua y, según nuestras proyecciones internas, podrían multiplicarla por cinco de aquí a 2030.

Las alternativas de refrigeración en seco reducen el consumo de agua, aunque suelen requerir más energía, especialmente en climas cálidos.

Todo ello refleja la necesidad de integrar la gestión del agua y la energía, incorporando tecnologías de refrigeración más eficientes en agua y promoviendo el uso de aguas residuales recicladas, especialmente en regiones áridas.

En este contexto, diversas compañías especializadas en eficiencia energética, gestión térmica y tecnologías del agua están trabajando en soluciones para reducir el consumo de energía y agua de los centros de datos y permitir que la inteligencia artificial siga creciendo dentro de los límites materiales existentes.

En última instancia, el avance de la inteligencia artificial dependerá en gran medida de la capacidad para gestionar estos límites materiales antes de que se conviertan en frenos estructurales para su desarrollo.

*** Natalia Luna es Senior Investment Analyst de Columbia Threadneedle Investments.