Nadie puede vivir ajeno al creciente consumo de energía asociado con el entrenamiento de modelos de inteligencia artificial. El aumento exponencial en la demanda de recursos computacionales para entrenar modelos de IA nos ha de plantear numerosos interrogantes no sólo sobre la sostenibilidad ambiental de esta tecnología, sino también sobre la accesibilidad y equidad en el desarrollo y uso de la inteligencia artificial.

El consumo masivo de energía durante el entrenamiento de modelos de IA es el resultado de la combinación de una intensiva carga computacional requerida por los algoritmos de aprendizaje automático, un tamaño creciente de los conjuntos de datos y la complejidad de los propios modelos, así como la necesidad de ejecutar iteraciones repetidas del proceso de entrenamiento para lograr resultados óptimos.

La pasada semana, Oliver King-Smith ofrecía algunos datos interesantes al respecto en un análisis publicado en ComputerWeekly. Por ejemplo, que los equipos Nvidia DGX (el estándar de oro para trabajos de IA) consume más de 10 KW de energía. A ello hemos de sumar otros 20 KW de refrigeración. El experto hace sus números y, teniendo en cuenta las órdenes de compra y los despliegues ya existentes, estaríamos hablando de que la inteligencia artificial consumirá tres veces más electricidad que toda la que usó el estado de California en 2022.

Por ello, y a medida que la IA se convierte en una herramienta omnipresente en nuestra sociedad, es crucial abordar este desafío desde múltiples ángulos. Afortunadamente, los investigadores y la industria están explorando diversas estrategias para abordar este problema con la seriedad que merece.

Una de las estrategias más prometedoras es la reutilización de modelos. Cae de cajón, pero es imprescindible volver a entrenar modelos previamente entrenados para adaptarlos a nuevos propósitos. Ahorro de tiempo y recursos evidente, que empresas como Meta y Mistral ya están utilizando. Otra técnica innovadora es la cuantificación, que reduce el tamaño de los modelos de IA al disminuir el número de bits necesarios para representar cada parámetro. Y la unión de ambas aproximaciones, con estrategias como ReLora y MoE, crucial para usar menos parámetros y activar sólo los componentes realmente necesarios para el entrenamiento de los modelos.

Estas técnicas, combinadas con un enfoque consciente y real (más allá de la publicidad y el 'greenwashing') en la eficiencia energética, ofrecen una visión esperanzadora para el futuro de la inteligencia artificial. Sin embargo, es esencial que la industria y los investigadores continúen colaborando para desarrollar y adoptar soluciones que equilibren el crecimiento de la IA con la responsabilidad ambiental.

Y es que debemos tener siempre presente que la innovación tecnológica no debe comprometer nuestro futuro, sino más bien allanar el camino hacia una sociedad más sostenible y equitativa. En última instancia, la eficiencia energética en la IA no solo es una necesidad, sino también una oportunidad para impulsar la innovación y el progreso hacia un futuro más brillante para todos. O, como se suele decir, 'veamos el vaso medio lleno'.