Ignacio Astilleros, Chief of Strategy en Openchip.

Ignacio Astilleros, Chief of Strategy en Openchip.

Opinión LA TRIBUNA

IA y computación acelerada para… ¿un mundo mejor?

Ignacio Astilleros
Publicada

Durante el año pasado hemos sido testigos de un hecho histórico en los mercados financieros, Nvidia, una compañía relativamente desconocida para la gente común, se revalorizaba hasta alcanzar la posición de ser la compañía más valiosa del planeta, superando los tres “trillion” o millones de millones de dólares.

Nvidia tiene el mensaje de la computación acelerada por bandera, la computación de más altas prestaciones que es necesaria para crear y perfeccionar los más avanzados modelos de inteligencia artificial. Es aquí donde entramos en algo que, siendo intangible y sofisticado, es más fácil de comprender para el común de los mortales.

Es este hype o moda de la inteligencia artificial del que se ha beneficiado Nvidia para alcanzar una posición en la que llegó a ser valorada en más de doscientas cuarenta veces sus beneficios anuales, algo más que sorprendente para una compañía de su tamaño. Es decir, que un inversor estaba dispuesto a comprar una acción de Nvidia por el beneficio que generase en los próximos doscientos cuarenta años si mantuviera su excelente rendimiento en beneficios.

La computación acelerada se consigue invirtiendo miles de millones en investigación y desarrollo, teniendo un equipo de ingenieros excepcionales y haciendo uso de las tecnologías de fabricación de microchips más avanzadas, algo en lo que Europa está a la cabeza mundial con la holandesa ASML. Sólo con las tecnologías más avanzadas de fabricación se consigue la eficiencia energética necesaria para que el coste de rendimiento por vatio mejore generación tras generación.

A priori, uno podría pensar que mejorando la eficiencia energética se podría conseguir que la computación de altas prestaciones contribuyera a la sostenibilidad del planeta, ya que con el paso del tiempo se consumiría cada vez menos energía para hacer el mismo cómputo. Los hechos nos indican algo diferente, y es que la demanda de energía para computación se está acelerando de forma muy preocupante. Tal es así que, nos llegan noticias como que hay nuevos centros de procesos de datos que incluyen en sus infraestructuras una pequeña central nuclear.

Este sinsentido de la demanda de energía para centros de procesos de datos se explica mediante la Paradoja de Jevons que dice que, si un recurso se hace más accesible reduciendo su precio, esto tendrá como consecuencia un consumo acelerado de este recurso. Sería algo equivalente a que si a nosotros nos bajasen el precio de la gasolina, en lugar de trasladar esto a un ahorro en la cesta de la compra de cada mes, incrementásemos el gasto en gasolina por un uso mayor del coche.

Teniendo en cuenta la espiral en la que está inmerso el sector de los microchips en una carrera contra reloj para hacer chips cada vez más potentes con tecnologías de fabricación más eficientes energéticamente, ¿cuál es la solución para equilibrar esta dinámica? ¿Realmente es necesaria tanta energía? ¿Se está mejorando la eficiencia energética del cómputo? La respuesta es sí… y no. Analicemos algunos aspectos sobre la eficiencia energética.

La eficiencia energética en computación se consigue haciendo uso de tecnologías de fabricación más avanzadas, sí, pero no sólo por eso, también es muy importante hacer un uso más eficiente de los recursos de cómputo disponibles, es decir, usando mejor cada transistor que compone el chip. ¿Y es eso fácil? Pues es más complejo de lo que parece, ya que los chips más avanzados, los de altas prestaciones, tienen más de cien mil millones de transistores y ya hay una proyección establecida hacia chips que contengan hasta un “trillion” o millón de millones de transistores.

Cuando "arrancamos" un chip de este tipo, lo que ocurre es que no importa que lo uses o no, cada transistor está consumiendo energía y, aunque es cierto que consume menos si no se usa, el chip sigue consumiendo energía. Además, los programas que ejecuta no siempre están hechos para aprovechar todos los recursos disponibles, ya que se producen cuellos de botella debidos a la ineficiencia en la programación y a la enorme complejidad del chip.

Lo que ocurre en realidad es que se compra compulsivamente este tipo de procesadores avanzados por considerarlos un recurso imprescindible, una fuente de ventaja competitiva, aunque luego no se saben usar correctamente por la dificultad y el conocimiento que requiere. Es decir, “se matan moscas a cañonazos”, produciéndose un gigantesco desperdicio de energía.

Hablando de ventaja competitiva, Peter Drucker definía el valor de un producto como aquello por lo que un usuario está dispuesto a pagar, siendo todo lo demás algo innecesario, una pérdida, un desperdicio, un lastre para la competitividad de nuestro negocio.

Por lo tanto, podríamos concluir que esta carrera contrarreloj por el desarrollo de microchips de alto rendimiento no sólo está acelerando un desequilibrio en los recursos naturales del planeta, sino que está desvirtuando el verdadero valor de las cosas, inflando valoraciones y acelerando el gasto en tecnología hasta niveles nunca vistos.

Por un lado, se tiene un círculo virtuoso de progreso tecnológico con el desarrollo de chips más avanzados y tecnologías de fabricación más eficientes energéticamente, y por otro, una dinámica que está impactando en la sostenibilidad medioambiental y esto no es fácilmente explicable mediante los modelos económicos que conocemos hasta ahora.

Deberíamos pues, redefinir el paradigma de cómo se mide el valor de una compañía de microchips, ¿se debería valorar el mayor número de transistores disponibles para computación? ¿El pico de rendimiento? ¿Habría que primar en la valoración el hacer un uso más eficiente de los recursos? ¿Qué sería más importante?

A la vista de este simple análisis todo parece indicar que es necesario un cambio de paradigma, una nueva forma de entender y valorar el progreso tecnológico y de predecir su impacto en nuestra economía. Quizás no deberíamos sobrealimentar este proceso de destrucción creativa que describía el economista Schumpeter, si el aspecto destructivo de una innovación produce un desequilibrio acelerado en el sistema como el que estamos viendo. O quizás sí, tomando las medidas necesarias para equilibrar algunas cosas.

Quizás lo ocurrido con el modelo de inteligencia artificial generativa “DeepSeek” nos haga reflexionar sobre cómo un mejor uso de los recursos puede producir resultados similares e incluso mejores en algunos aspectos que los modelos de inteligencia artificial más avanzados que han sido desarrollados con chips más complejos que los que se usaron para crear “DeepSeek”. Quizás por ello Nvidia sufrió una corrección importante en su valor en bolsa.

Quizás necesitemos primar el medir el porcentaje de uso de los recursos de cómputo, no mediante programas de “benchmarking” para entender su máximo rendimiento, sino midiendo el uso real de los usuarios finales, de cualquier tipo de empresa, ya que es entonces cuando se podrá entender mejor el valor de una tecnología y su impacto. De nada serviría medir la eficiencia en el consumo de gasolina de un coche si, por ejemplo, el consumo cada cien kilómetros es de 5 litros y su gasto real cuando lo usamos en ciudad es de 15 litros.

Ante este contexto, como sector debemos confiar en que lo más importante es la flexibilidad y la usabilidad. Ir más allá de un foco en picos de rendimiento de nuestros sistemas y buscar, por encima de todo, la facilidad de uso, la eliminación de esos cuellos de botella, y, con ello, maximizar el valor real que como sector podemos ofrecer a la sociedad. En el campo de los microprocesadores, esto significa avanzar hacia un modelo en el que cada tipo de programa pueda disponer de los recursos de cómputo óptimos de forma sencilla y combinarlos de forma inteligente para maximizar su valor al usuario final. De esta forma, se podría mejorar el uso útil de los sistemas a la vez que se podría contener la espiral acelerada de consumo de energía que tanto amenaza al avance tecnológico.

El camino de futuro está claro: avanzamos como sector hacia una computación de altas prestaciones más sostenible. Una computación capaz de dar lugar a un cambio de paradigma y que podríamos denominar “Inteligencia Artificial Sostenible” o “Sustainable AI” en inglés. Así que, no, no podemos concebir la Inteligencia Artificial como un nuevo “becerro de oro”, sino que es nuestra responsabilidad como agentes de la tecnología poner sentido común a la tecnología, hacer que el mundo sea más sostenible y, en último término, lograr que el progreso tecnológico de la Inteligencia Artificial contribuya a una sociedad mejor, moderna, más sostenible, más responsable y más consciente de la tecnología que usa.

Pero eso es otra historia, un tema apasionante que aborda cuestiones como la necesidad de asegurar un comportamiento ético de la inteligencia artificial, libre de sesgos y de manipulaciones, una inteligencia artificial que preserve nuestra libertad y que potencie todo aquello que nos hace humanos.

***Ignacio Astilleros es Chief of Strategy en Openchip.