
Sam Altman, CEO de OpenAI. Omicrono
Cuando la educación vale millones: el dinero (y la energía) que le cuestan a ChatGPT las palabras 'hola' y 'por favor'
La empresa reveló que este gesto de cortesía le cuesta "millones de dólares" y litros de agua por el sobrecalentamiento de los servidores.
Más información: Claude, la IA que compite contra ChatGPT y Gemini, va a 'hablar': comienzan las pruebas de su modelo de voz y así suena
Algo tan sencillo como un 'gracias' podría estar costando millones de dólares. Así lo dejó entrever Sam Altman, CEO de OpenAI, al responder con ironía a un usuario en X (antes Twitter), el pasado 20 de abril, que se preguntaba cuánto dinero habría perdido la compañía para procesar los gestos de cortesía con los que los usuarios se dirigen a ChatGPT.
La respuesta de Altman —"decenas de millones de dólares bien gastados: nunca se sabe"— fue suficiente para abrir la puerta a un debate mucho más profundo sobre el verdadero precio de la inteligencia artificial, incluso en sus formas más amables.
Aunque al principio estas declaraciones se tomaron como una broma, lo cierto es que la respuesta escondía una verdad sorprendente: cada palabra adicional en los mensajes dirigidos a este modelo de IA implica un mayor procesamiento computacional. Esto, a su vez, se traduce en un consumo más elevado de energía eléctrica e hídrica, especialmente en los centros de datos encargados de operar versiones superiores como la de GPT-4.
Si se considera que ChatGPT recibe alrededor de mil millones de interacciones diarias, los pequeños gestos de cortesía digital se acumulan hasta representar un impacto significativo. Y es que el procesamiento de lenguaje natural no es precisamente una operación inocua.
Cada token —la unidad básica de información para estos modelos— requiere cálculos complejos. Un simple 'por favor' o 'gracias' puede añadir uno o dos tokens más a cada conversación. Esto, multiplicado por los millones de usuarios, da como resultado miles de horas extra de trabajo computacional cada día.
Este procesamiento digital conlleva más energía, más agua para refrigerar los servidores y más emisiones contaminantes. Diversas estimaciones refuerzan esta idea. Según la publicación Tom’s Hardware, cada consulta a ChatGPT-4 puede consumir entre 0,3 y 2,9 vatios/hora (Wh).
A gran escala, esto se traduce en unos resultados de entre 300 megavatios/hora (MWh) y 2,9 gigavatios/hora (GWh) diarios, el equivalente al consumo energético anual de entre 100 y 1.000 hogares europeos. En la misma línea, según el portal Bestbrokers, el gasto total de energía en un año podría ascender a más de 1.000 GWh, suficiente para abastecer a 320.000 hogares españoles.
El agua, recurso indispensable para mantener operativos los centros de datos, tampoco se queda atrás. Varias investigaciones de universidades de California y Texas indican que cada 10 o 50 interacciones con el modelo pueden consumir medio litro de agua, cifra que otros estudios elevan hasta los dos litros. A este ritmo, se proyecta que para 2027 el consumo hídrico asociado a la inteligencia artificial podría alcanzar entre 4.200 y 6.600 millones de metros cúbicos al año.
La paradoja está servida: cuanto más natural y humana es la interacción con la IA, más costosa se vuelve para el planeta. Marina Otero Verzier, experta en inteligencia artificial, advierte que cada pregunta a ChatGPT podría equivaler a "verter medio litro de agua", una cifra potente que ilustra el dilema entre innovación y sostenibilidad.
A pesar de las críticas, Altman defendió la inversión. La experiencia del usuario, dijo, se enriquece cuando se permite que las personas interactúen con naturalidad, aunque eso implique costos adicionales.
Sin embargo, el debate continúa creciendo. El Banco Central Europeo ya ha alertado que la expansión de la IA podría incrementar los precios energéticos en Europa, y se estima que para 2035 las emisiones de CO₂ relacionadas con esta tecnología podrían alcanzar los 500 millones de toneladas anuales.
Frente a esto, OpenAI se enfrenta a un dilema crucial: optimizar el uso de recursos sin sacrificar la calidad de las interacciones. Altman ha mencionado planes para mejorar la eficiencia energética, aunque aún no ha ofrecido detalles concretos.
Mientras tanto, cada 'gracias' que se escribe a ChatGPT representa algo más que buena educación: simboliza la delicada tensión entre el progreso tecnológico y la responsabilidad ambiental. La pregunta, en última instancia, no es si debemos ser amables con las máquinas, si no cuánto estamos dispuestos a pagar —en agua, energía y sostenibilidad— por esa cortesía.