Sam Altman, CEO de OpenAI.

Sam Altman, CEO de OpenAI. Europa Press

Tecnología

La burbuja de la IA no es solo financiera: "Su avance puede haberse topado con sus propios límites tecnológicos"

El ingente consumo de recursos, la falta de transparencia y el entrenamiento con datos sintéticos ponen en peligro el futuro de la inteligencia artificial.

Más información: La IA preferiría acabar con los humanos antes que ser apagada, según una investigación: "Su razonamiento es preocupante"

Publicada
Actualizada

Cualquier cumpleaños infantil termina con ese júbilo primario de los niños pisando los globos para estallarlos. Las consecuencias de ese gozo inexplicable no van más allá de algún que otro susto para los adultos allí presentes. Por contra, el estallido del gigantesco globo de la inteligencia artificial puede tener consecuencias desastrosas para la economía mundial y para los gigantes tecnológicos que la sostienen.

Hace apenas tres años, si algo había puesto de acuerdo a ingenieros informáticos, expertos en finanzas, periodistas especializados y magnates de las big tech es que la IA no era solo el presente, sino el futuro.

Una suerte de oráculo infalible en el que encontrar todas las respuestas, la gran esperanza para acelerar el progreso y resolver los múltiples callejones sin salida a los que parece abocada la Humanidad.

En los últimos meses, ese consenso se ha desviado a otro muy distinto: la IA sufre una burbuja de proporciones colosales. Valoraciones como la de OpenAI y sus 500.000 millones de dólares o el 'pelotazo' de Nvidia que la ha convertido en la empresa más valiosa del mundo, con una capitalización bursátil superior a los 4.500 millones de euros, son buena muestra de ello.

"¿Hay una burbuja? Por supuesto, como ocurre siempre que una tecnología es de propósito general y además tiene unas perspectivas enormemente atractivas", señala en declaraciones a EL ESPAÑOL-Omicrono Enrique Dans, profesor de Innovación y Tecnología en IE Business School.

"Pero anunciar una burbuja no quiere decir que una tecnología no funcione o que no sea importante. La IA es la tecnología más importante que hemos visto en toda nuestra vida y lo va a seguir siendo", resalta.

Imagen de logos de aplicaciones de IA y compañías tecnológicas generada por inteligencia artificial

Imagen de logos de aplicaciones de IA y compañías tecnológicas generada por inteligencia artificial Gemini Omicrono

Por su parte, el filósofo y matemático Carlos M. Madrid, autor del libro Filosofía de la inteligencia artificial y antiguo profesor de Estadística en la Universidad Complutense de Madrid, señala que el problema puede ir mucho más allá del colapso financiero y apunta a importantes barreras tecnológicas.

“El paradigma de la IA generativa es intentar suplir mediante la estadística y la fuerza bruta de computación el manejo del lenguaje. Y lo que nos están demostrando los grandes modelos de lenguaje (LLM) es que con eso no basta para suplantar la comprensión de la que es capaz la inteligencia humana”.

Colapso financiero

En cualquier caso, se ha roto un dique de contención y los propios CEOs de las empresas hablan abiertamente de burbuja. Ya se relaciona la situación con un posible colapso similar al de las puntocom, con una salvedad: este estallido sería 17 veces más grande que aquel, según un análisis de la firma independiente de investigación MacroStrategy Partnership.

En los últimos días, hasta instituciones como el Banco de Inglaterra han advertido sobre los peligros de esta situación, que puede llevar a "una fuerte corrección" de la bolsa si la IA no cumple con las altísimas expectativas que ha levantado en los últimos años.

Jeff Bezos, fundador de Amazon, durante al Italian Tech Week de Turín

Jeff Bezos, fundador de Amazon, durante al Italian Tech Week de Turín Europa Press Omicrono

Unos dicen que esta burbuja es 'buena', como Jeff Bezos. Otros evitan el término y hablan de "excesivo entusiasmo", como Mark Zuckerberg o Sam Altman. CEO de OpenAI y quien más ha contribuido a inflar este inmenso globo desde el lanzamiento de ChatGPT, que ha anunciado recientemente la cifra de 800 millones de usuarios semanales.

Los más críticos hablan de sus similitudes con un esquema Ponzi, diseñado para engañar a los inversores y seguir inflando la burbuja a cualquier precio. Las compañías están anunciando acuerdos históricos, intercambiando capacidad de computación y chips por acciones y futuras inversiones, sin que haya dinero real detrás de lo que cada vez se parece más a una gigantesca estafa piramidal.

Mientras presentan nuevos modelos y planes cada vez más ambiciosos a ritmo de vértigo, las compañías aseguran estar a la búsqueda de la inteligencia artificial general (AGI), el santo grial que todos persiguen entre codazos para ser las primeros. Ese momento clave llegará cuando una IA tenga la capacidad de comprender, aprender y aplicar su conocimiento a cualquier tarea intelectual que un ser humano pueda realizar, en lugar de estar limitada a un dominio específico.

¿Qué ha provocado que los propios magnates tecnológicos empiecen a reconocer que existe una burbuja en torno a la IA? "Están intentando desalentar a la marabunta que quiere disputarles el mercado", señala Dans. "Hay un montón de aplicaciones que no es que vayan a robarles el protagonismo a estos gigantes, pero sí les pueden arañar cuota en ciertos nichos".

Para Carlos M. Madrid este cambio también tiene que ver con "los últimos lanzamientos, como GPT-5. Los avances que promete Altman parecen haberse estancado. Sigue habiendo mejoras y progresos, no hay duda, pero los saltos cualitativos cada vez son menores y no hay un progreso que sea verdaderamente significativo”.

Buena parte del problema puede estar vinculado con el plan de empresas como OpenAI, Meta o Google, que pasa por intentar conseguir mejores resultados a través de más procesadores y centros de datos más grandes, lo que implica un mayor consumo de energía. Algo que ya se está materializando en el alza de los precios de la electricidad en zonas de EEUU y amenaza con ser insostenible no a largo plazo, sino en breve.

"El clásico lema estadounidense 'más grande, mejor, más rápido' puede haberse topado con sus propios límites. No hay diferencias llamativas entre un modelo y el siguiente", explica Dans, "y tienen que buscar alternativas".

La vía para enganchar a millones de usuarios y hacerles pagar una suscripción se centra en chatbots que imitan cómo escribimos, y a modelos que replican imágenes, vídeo y audio como si fueran reales, pero a un coste económico que no resulta rentable. Y, más importante aún, la verdadera transformación de la sociedad que anunciaban los heraldos de la IA no parece estar tan cerca.

Barreras tecnológicas

Así, más allá del posible colapso financiero, con lo que parece haberse topado la IA generativa es con varios obstáculos tecnológicos de momento insalvables.

La solución que apuntan algunos expertos está en 'aligerar' y abaratar el coste de los modelos, conseguir el mismo resultado con menos parámetros, como demostró Deepseek, la IA china que ya se codea con los gigantes estadounidenses y provocó un terremoto en la bolsa.

Deepseek vs ChatGPT

Deepseek vs ChatGPT

"Como no pueden tener la misma capacidad de computación porque no pueden acceder a los procesadores más avanzados de Nvidia, en vez de apostar por la fuerza bruta innovan en procedimientos matemáticos y estadísticos para que los modelos sean más pequeños y eficientes", apunta Dans.

Para Madrid, Deepseek "ha sido una especie de caballo de Troya, sobre todo por ser de código abierto, lo que permite inspeccionarlo, algo que no se puede hacer con los modelos de OpenAI. Lo que ha demostrado China con sus nuevos modelos de razonamiento es que, dentro de este paradigma, es capaz de estar a la altura e incluso superar a EEUU”.

Pero la principal barrera tecnológica puede ir aún más a la raíz de estos modelos, al enfoque general de la IA generativa. Los LLM aprenden a manejar el lenguaje a través del entrenamiento con millones y millones de textos, con los que van desarrollando un modelo estadístico que les dice cómo se relacionan unas palabras con otras.

“Para una IA la palabra mesa no es más que un significante, un conjunto de literales que van juntos, que aparece en muchos textos cerca de otro literal que es restaurante, por ejemplo. Pero ese LLM nunca ha tocado una mesa ni la ha manipulado”, indica Carlos M. Madrid. Las IAs generativas 'regurgitan' los resultados basándose en los datos de su entrenamiento, pero no 'entienden' realmente lo que están ofreciendo al usuario.

Sam Altman, CEO de OpenAI

Sam Altman, CEO de OpenAI

Y ahí puede estar una de las claves, porque la inteligencia humana no sólo tiene que ver con el lenguaje sino también con el cuerpo, con manipular y operar en el entorno real. “A estas IAs les ha pasado un poco lo mismo que a Don Quijote, que de tanto leer libros de caballería se les ha trastocado el pensamiento. No basta con leer, sino que hace falta salir al mundo e interactuar con él”, prosigue el autor de Filosofía de la Inteligencia Artificial.

Así, el desarrollo de este tipo de modelos tiene que ir ligado el desarrollo de IAs que integren la corporalidad. "Lo que hay que ver es cómo todo esto engancha con la robótica", explica Madrid. "Ese es el termómetro que va a permitir comprobar si vamos a seguir viendo avances espectaculares o se va a estancar”.

La clave también puede estar en el propio lenguaje utilizado para resaltar las bondades y ventajas de la IA. “Es muy equívoco", denuncia Madrid. "En vez de hablar de errores hablan de alucinaciones, como para tapar lo que no es más que un fallo del modelo. Cuando se habla de redes neuronales, se obvia que estas no tienen más que una lejana semejanza con una red neuronal biológica".

De una manera u otra, "se está sugiriendo que estos modelos piensan o sienten, y esa terminología es engañosa porque acaba confundiendo dónde está el problema. Parecen no querer ver que las IAs generativas son sofisticadas calculadoras lingüísticas. Es un avance espectacular, no cabe duda, pero no es más que eso”.

Cajas negras

A menudo, ni los propios ingenieros responsables de su programación comprenden del todo el razonamiento interno de un modelo de IA. Es lo que se conoce como 'caja negra' y, a diferencia de las que hay en todos los aviones comerciales, estas parecen indescifrables.

"Los LLMs basados en redes neuronales realizan tal cantidad de operaciones matemáticas cruzadas que es muy difícil saber por qué a veces toman la decisión que toman. Eso, para su aplicación en el mundo real, por ejemplo en medicina, supone un problema", indica Madrid.

Y para denunciar esa falta de transparencia, propone un ejemplo de lo más ilustrativo. "Imagina que vas al médico, y él mete los resultados de un análisis de sangre en una red neuronal que concluye, a partir de esos datos, que tienes una enfermedad".

"El médico te dice que la IA tiene una alta tasa de acierto y que, efectivamente, padeces esa enfermedad, pero no es capaz de explicarte por qué la tienes", prosigue. "¿Te fiarías de ese diagnóstico? Algo así supone pedirle a los médicos y a los ciudadanos que se arrodillen ante una especie de brujo o chamán omnisciente”.

Por eso muchos sugieren que el camino correcto es que los modelos sean lo más abiertos y transparentes posibles, para poder identificar en cada caso dónde puede estar el fallo o si hay sesgos que deriven en errores que pueden resultar catastróficos.

La solución, en todo caso, no es tan fácil. "El problema es que cuando en vez de una red neuronal se aplica un árbol de decisión, un método que nos permite saber en qué nodo se ha tomado la decisión, no se consigue una tasa de acierto tan alta”. Susto o muerte.

Datos sintéticos

La otra gran amenaza que se cierne sobre la inteligencia artificial como un obstáculo aparentemente insalvable desde el punto de vista tecnológico es que "ya no hay datos nuevos para entrenar una IA que pretenda ser general", denuncia Dans. "Si empiezan a hacerlo con datos sintéticos puede ser una catástrofe".

Internet es la fuente principal para el entrenamiento de estos modelos, y ya está inundado de contenido diseñado por estas mismas inteligencias artificiales. "Como son modelos estadísticos, se produce el fenómeno que se conoce como regresión a la media: los resultados que producen estos modelos son, por así decirlo, más mediocres que los procedentes de personas", dice Carlos M. Madrid, que además de filósofo es estadístico y sabe de lo que habla.

La IA necesita un cuerpo para ser realmente 'humana'

La IA necesita un cuerpo para ser realmente 'humana' SmileStudioAP Istock

El principal riesgo que se corre si se utilizan demasiados datos sintéticos es lo que se conoce como el 'colapso del modelo', un proceso degenerativo que amplifica los errores de las IAs. Esto provoca una inevitable pérdida de contacto con los datos reales, atrapándolos en un círculo vicioso que degrada su calidad y fiabilidad.

"Lo que vienen a decir un equipo de investigadores en un reciente estudio de Nature es que, aunque puede ofrecer grandes beneficios a sectores como la medicina, si al modelo lo alimentas con basura, lo que te da es basura", concluye Madrid.

¿Y si estalla la burbuja?

Ya sea por cuestiones financieras o tecnológicas, parece cuestión de tiempo que la burbuja reviente. Hay quien prevé una catástrofe económica a nivel mundial, otros como Dans son más escépticos: “Amazon estaba antes de la burbuja de Internet y no sólo sobrevivió, sino que se aprovechó de todos los nichos que dejaron los que se quedaron por el camino. Aquí va a pasar lo mismo. Quien vende las palas y los tamices en la fiebre del oro nunca se hunde", en referencia a Nvidia.

En todo caso, el enfriamiento económico es el resultado más probable, con los pequeños ahorradores y las startups incipientes como víctimas propicias de un estallido que puede provocar una huida en masa de las inversiones en IA.

Madrid, por su parte, recuerda el ciclo de Gartner: "hay un momento de expectativas sobredimensionadas, luego empieza a caer la ola y finalmente hay ciertas aplicaciones que son las que se estabilizan y las que al final acaban modificando el mundo en el que vivimos".

En todo caso, la lectura más interesante viene desde el punto de vista geopolítico, ya que puede inclinar la balanza en el duelo de poder entre EEUU y China. "Si las grandes tecnológicas, la gran mayoría estadounidenses, caen en bolsa, se puede acelerar el declive de EEUU y que China amenace seriamente su hegemonía mundial”.