Hay lanzamientos que hacen historia por lo que logran. Y otros, como el de GPT-5, por lo que defraudan. Sam Altman, CEO de OpenAI, tuvo que admitir públicamente que “la compañía la había fastidiado totalmente” con un despliegue mal gestionado y unas expectativas que no se cumplieron. Prometió a los usuarios decepcionados que “la próxima versión será la buena”. Pero el humo ya no cuela.
La narrativa de una IA generativa que está dando paso a una IA general (AGI) se desvanece junto con las promesas de productividad multiplicada por diez, startups unicornios de un solo empleado o los retornos multimillonarios. Las mismas promesas de siempre cuando se huele a dinero barato y a FOMO. Pero estas ya tampoco cuelan.
El científico y emprendedor Gary Marcus, voz líder en el ámbito de la IA, lo resumía así: “Las grandes compañías finalmente lo han entendido: la IA generativa suena genial, pero no funciona lo suficientemente bien como para justificar los costes”. La industria está reajustando expectativas, como confirma el informe ‘The Gen AI Divide: State of AI in Business 2025’ del MIT.
Un 95% de las organizaciones no están obteniendo retorno de inversión con sus iniciativas de IA generativa, según el estudio. La mayoría fracasa debido a flujos de trabajo frágiles, falta de aprendizaje contextual y desalineación con las operaciones diarias. Si bien herramientas como ChatGPT o Copilot tienen una adopción muy elevada de exploración (más del 80%) y cerca del 40% de organizaciones hablan de despliegue, las mejoras se dan a nivel de productividad individual, no de transformaciones estructurales de los negocios.
En mucho menos porcentaje se desarrollan soluciones a medida: sólo alrededor del 5% llegan a producción. Pero son estas precisamente las que más valor aportan. El problema es que, al ser personalizadas, requieren de más inversión, y por tanto aumentan los gastos y se reduce el retorno. No es un modelo de ‘software como servicio’, sino de sistemas que se integren con los procesos existentes y mejoren con el tiempo.
“La principal barrera para la escalabilidad -señala el informe- no es la infraestructura, la regulación ni el talento. Es el aprendizaje. La mayoría de los sistemas de IA generativa no retienen la retroalimentación, no se adaptan al contexto ni mejoran con el tiempo”. Ya no basta con incorporar la IA generativa por no quedarse atrás o por puro marketing.
Otros análisis, como el de la firma de gestión de fondos Apollo, confirman una tasa de adopción de IA a la baja en grandes empresas que han invertido millones de dólares en copilotos. Los retornos de inversión no compensan los costes de infraestructura, supervisión humana, integraciones fallidas, etc.
No compensan, o simplemente no funcionan, como le pasó a Duolingo o a Klarna, que han dado marcha atrás en sus grandes anuncios de reemplazo de buena parte de sus empleados por sistemas de IA. La primera lo hizo por el rechazo de su anuncio. La segunda porque la calidad del servicio de atención al cliente cayó estrepitosamente con los chatbots de IA.
Y mientras las tasas de adopción empresarial de IA generativa se desaceleran, la IA no generativa (sistemas de recomendación, detección de fraude, optimización logística…) sigue generando beneficios.
Realismo vs economía del ‘hype’
Desde el lanzamiento de GPT-4 en 2022, la retórica de la escala de la IA ha orbitado en torno a la idea de que invertir en datos masivos, GPUs y escalar parámetros conduciría más pronto que tarde a la llamada “IA general” (AGI, por sus siglas en inglés). Supuestamente, serían máquinas capaces de superar humanos en cualquier tarea cognitiva, aunque ni siquiera en su propia definición hay acuerdo.
Gracias a esta idea que Altman y otros líderes de la industria de la IA generativa llevan vendiendo insistentemente, han conseguido inflar sus valoraciones hasta cifras impensables: 500.000 millones de dólares para OpenAI, 183.000 millones de dólares para Anthropic, y sumas que alcanzan los 32.000 y los 10.000 millones de dólares -respectivamente- para las propuestas del cofundador y la exdirectiva de OpenAI Ilya Sutskever y Mira Murati (con poco más que una página de presentación).
Sin embargo, la realidad técnica ha desmontado el mito de la AGI. Los grandes modelos de lenguaje (LLM) no son capaces de generalizar ni de crearse un modelo del mundo, como señala un estudio de investigadores del MIT y la Universidad de Harvard. También carecen de mecanismos para formar abstracciones o integrar lógica simbólica. Otros estudios (varios de Apple) han desenmascarado el truco de los modelos de ‘razonamiento’: una “ilusión de pensamiento” que no es más que mímica estadística.
Por más datos y potencia con la que se entrenen, los modelos de IA generativa siguen sin resolver estos problemas. GPT-5 continúa alucinando, cometiendo errores ridículos y haciendo trampas al ajedrez"; Grok 4 (la versión más reciente de la IA de Elon Musk) apenas mejoró con respecto a Grok 2, a pesar de contar con 100 veces más entrenamiento; y el modelo jumbo Llama 4 de Meta, mucho más grande que su predecesor, también fue considerado un fracaso.
Llamar “inteligencia” a lo que hacen los LLM ha sido el gran regalo envenenado del marketing. Son máquinas de predicción de tokens, no razonadores de propósito general. No entienden, correlacionan. No planifican, completan. Por eso necesitan recurrir a muletas: afinar su entrenamiento, salvaguardas, buscadores online, herramientas externas…. Y por eso fallan cuando les pedimos lo que no están diseñados para dar.
Así que, a pesar de los miles de millones que OpenAI y sus rivales han invertido en centros de datos, chips de NVIDIA y energía, el resultado es cada vez más marginal. Las mejoras son incrementales, no disruptivas. Y la supuesta ventaja competitiva de invertir sumas astronómicas en entrenamiento no existe.
En cuestión de días la competencia es capaz de replicar cada novedad, también con opciones de código abierto. Eso por no hablar de cómo Deepseek y otros modelos chinos han mostrado prestaciones similares a una fracción del coste (que sepamos), con modelos más ligeros y eficientes.
Ante la innegable realidad, el propio Altman ha empezado a relativizar el término AGI como “no muy útil”. También ha reconocido que algunas nuevas empresas de IA generativa están alcanzando valoraciones “insanas” por un comportamiento irracional de los inversores, que dejará muchos cadáveres.
¿Qué ha sido de esas startups que prometían generar millones con un solo empleado, o eliminar departamentos enteros con un solo ‘agente autónomo’?
El resultado: un desperdicio masivo de capital en modelos con retornos decrecientes. Estamos atrapados en un bucle similar al que precedió al ‘invierno de la IA’ de los años setenta, ofuscados en escalar una arquitectura que se está dando contra un muro, en lugar de diseñar alternativas. O, al menos, lo estábamos. Porque ahora parece que las tornas empiezan a cambiar.
¿Un nuevo invierno?
Este cambio de rumbo puede ser lo que marque la diferencia con etapas anteriores, que evite caer en un invierno absoluto que congele la IA. Que, en lugar de ser un fracaso terminal, el punto de inflexión ocurrido con GPT-5 marque la entrada en una fase de desinflación del hype, en la que podemos empezar a distinguir el valor real de la tecnología: diferenciar el ‘bullshit’ de las aplicaciones útiles.
Una vez hemos dejado de lado la mística de la AGI “a la vuelta de la esquina”, podemos centrarnos en dónde la tecnología crea valor: automatización de procesos repetitivos, gestión documental, revisión de contratos, seguimiento financiero, pago a proveedores, procesos operativos de logística… Son estas áreas las que están generando los retornos financieros más claros cuando las empresas cruzan la ‘brecha de la IA generativa, según el informe del MIT.
Además, pese a lo que pueda parecer, son los sectores regulados (como el financiero o la salud) los que tienen más probabilidades de éxito en sus implementaciones. Van más lentos, pero también más seguros, dadas las necesidades de robustez, trazabilidad y fiabilidad propias de su nicho. No obstante, también en estos sectores hay despliegues fallidos, a menudo por falta de comprensión del problema que se intenta resolver o del funcionamiento de la IA, y por falta de un enfoque basado en la ética como mejor aliado para la competitividad.
En cuanto al avance técnico del campo de la IA, parece que la balanza se empieza a decantar por lo que Marcus lleva años proponiendo: integrar la IA actual (basada en las llamadas ‘redes neuronales’ o aprendizaje estadístico) con la IA ‘simbólica’ (basada en reglas y lógica). Un modelo híbrido que combine lo mejor de ambas: una IA ‘neurosimbólica’.
La historia se repite
Estamos en un momento clave de reconocimiento de estas realidades, que encaja perfectamente con dos marcos teóricos: el ‘Hype Cycle’ de Gartner, y la teoría de las revoluciones tecnológicas de la célebre economista Carlota Pérez.
La ‘curva de Gartner’ describe el recorrido de una tecnología desde el entusiasmo inicial hasta la meseta de productividad, y permite inferir cómo puede avanzar a lo largo del tiempo. Su representación más reciente para la IA generativa refleja lo que estamos viviendo: desde las primeras demos espectaculares de lanzamiento de GPT 4 hasta el pico de expectativas sobredimensionadas, llegando ahora al ‘abismo de desilusión’.
Este reajuste no es un freno, sino una condición para alcanzar la madurez y que la ola no se quede en mera promesa. Lo que viene después es mejor que el hype: inversión con cabeza y una conversación adulta sobre lo que estos sistemas son y no son, lo que pueden hacer y lo que no, y cómo materializar su valor.
Según esta curva, la burbuja lleva desinflándose desde 2024. Sobrevivirán a la caída solo aquellas aplicaciones y compañías que realmente aporten valor, que entiendan los costes, los riesgos y los límites, y que integren la IA con sentido. Y ello llevará a un ascenso por ‘rampa de la consolidación’, hasta alcanzar la ‘meseta de productividad’.
Aunque, no nos engañemos, para algunos la burbuja sigue coleando. Esta misma semana OpenAI ha firmado un contrato para comprar la histórica cantidad de 300.000 millones de dólares en potencia informática durante aproximadamente cinco años a Oracle, según informa The Wall Street Journal.
Cada ola tecnológica atraviesa fases de euforia, colapso y maduración, como explicó ya hace años Carlota Pérez en su teoría sobre las revoluciones tecnológicas: una lente para interpretar lo que está ocurriendo.
La IA ya ha sufrido varias fases de euforia y colapso: los denominados “inviernos de la IA”. En la década de 1980 se invirtieron miles de millones de dólares en los llamados “sistemas expertos”, una industria que cayó en picado hasta su práctico abandono. La pregunta es si esta vez será diferente: si se superará el abismo que separa el colapso de la madurez.
La explosión tecnológica, el frenesí financiero y el progresivo pinchazo de la burbuja de la IA pueden avanzar un próximo despliegue productivo: una nueva Era Dorada que comienza en el momento en el que se consolida el valor real de la tecnología y el Gobierno direcciona los avances para el beneficio y la paz social.
Nada de esto está garantizado. Dependerá de las decisiones que tomemos hoy. Por el camino, eso sí, caerán algunos castillos de naipes. Es el precio de construir algo que aguante el invierno y llegue vivo a la primavera.