La narrativa que rodea a OpenAI empieza a parecernos cada vez más familiar: una compañía que proviene de la vanguardia tecnológica, que captura una inversión descomunal, que atrae talento global, que se vuelve indispensable para sus socios y que alimenta expectativas máximas mientras acumula costes descomunales y crecientes.
Todo ello en un contexto donde la tecnología no es solo una herramienta, sino un vector de poder, influencia y dependencia: esta vez no se trata simplemente de construir una plataforma revolucionaria, sino de preguntarse si estamos ante la repetición del guión clásico de las Big Tech, y entender por qué eso resulta inquietante.
Desde sus orígenes, OpenAI adoptó una estrategia híbrida: explorar lo disruptivo y escalarlo como servicio, al mismo tiempo que establecía alianzas con gigantes como Microsoft. Esa combinación le permitió posicionarse como un actor central en el ecosistema de inteligencia artificial, con valoraciones que alcanzaron pronto cifras estratosféricas, con acuerdos estratégicos y con un papel casi estructural en la estrategia de nube, modelos fundacionales y servicio al cliente.
Pero lo que parece un éxito meteórico también es un riesgo latente: llegar a un punto en el que la caída sea tan traumática para la economía y para el sector que su supervivencia pase a convertirse en “too big to fail”.
Ese término, que ya ha sido usado en varios análisis sobre esta industria, revela que el problema no es solo financiero, sino estratégico y sistémico: cuando una empresa se vuelve imprescindible, con conexiones profundas en infraestructura, talento, datos y capital, su destino deja de depender exclusivamente de su mercado; pasa a depender de su red, de sus socios, de su capacidad de sostener el peso de sus enormes apuestas.
Si OpenAI falla, podría precipitar una cadena de consecuencias que afecta a quienes dependen de sus modelos
OpenAI aspira a ser protagonista en la futura generación de inteligencia artificial general, y sus movimientos sugieren que piensa en una escala que trasciende el producto para intentar asumir un papel estructural.
Pero esa escala tiene costes crecientes. Inversiones masivas en centros de datos, en chips especializados, en talento exclusivo y en colaboración estratégica con otras corporaciones que elevan brutalmente las barreras de entrada. La paradoja es que cuanto más indispensable se vuelve una compañía para un ecosistema, más vulnerable es a que sus propios errores se conviertan en crisis sistémicas.
Si OpenAI falla, podría precipitar una cadena de consecuencias que afecta a quienes dependen de sus modelos, de su infraestructura o de sus alianzas.
Otro rasgo inquietante es la conjunción de dos dinámicas: por un lado, el gasto monstruoso que las grandes tecnológicas realizan en inteligencia artificial (centros de datos, chips, servicios en la nube, etc.) y, por otro, la dificultad de que esos gastos se transformen en ingresos claramente crecientes o en productos que justifiquen la inversión a corto plazo.
Esa tensión se acentúa cuando OpenAI y otros actores asumen que el éxito no está simplemente en ofrecer una funcionalidad, sino en dominar una lógica de plataforma: modelos estandarizados, distribución masiva, dependencia de la nube y monetización a través de ecosistemas ampliados. Es exactamente la estructura que definió a los gigantes del pasado.
La ambición de OpenAI puede ser una fuerza de empuje para la industria, para la adopción de la inteligencia artificial y para el cambio profundo (e inevitable) de muchas economías
La pregunta clave es si estamos ante un nuevo ciclo de concentración de poder tecnológico, de ecosistemas cerrados en los que quienes suben al tren se comprometen a una dependencia que ahora parece inevitable. OpenAI se convierte así en catalizador y advertencia: su éxito puede generar externalidades positivas enormes, pero también deriva hacia dinámicas de lock-in, de barreras crecientes, de riesgo sistémico elevado.
Y esas dinámicas ya las conocemos: ralentización de la competencia, poder de mercado acumulado, efectos colaterales en innovación, y riesgo de captura regulatoria.
No todo está perdido: esta vez el contexto es distinto, con mayor sensibilidad pública, migración del debate hacia la soberanía tecnológica, preocupación regulatoria real y una conciencia creciente de que los gigantes del mañana pueden requerir mecanismos distintos de los de ayer.
En ese escenario, la ambición de OpenAI puede ser una fuerza de empuje para la industria, para la adopción de la inteligencia artificial y para el cambio profundo (e inevitable) de muchas economías. Pero también exige que observemos cómo se estructuran sus relaciones comerciales, su modelo de ingresos, su responsabilidad frente al sistema y su capacidad de descentralización.
Porque el mayor riesgo no es solo que OpenAI domine la inteligencia artificial: es que, al hacerlo, reproduzca el patrón que ya conocemos de una empresa hegemónica, infraestructuras propietarias, dependencia de clientes y desarrolladores, inversiones que solo justifican retornos a largo plazo y un ecosistema que se ajusta a su lógica en lugar de configurarse de forma plural.
En lugar de abrir la inteligencia artificial al mundo, podríamos estar aceptando otro dominio tecnológico, con una jerarquía que favorece a los que ya están dentro.
Lo que está en juego no es sólo cómo de grande se va a hacer OpenAI, sino cómo de dependientes nos volvemos de ella. Porque la tecnología no es neutra y las estructuras que construye configuran el futuro de la industria, del empleo y de la sociedad.
Si OpenAI sigue el guion completo de las Big Tech, Europa y España no podrán limitarse a regularla: tendrán que asegurar que compitan, innoven y diversifiquen. Que la inteligencia artificial no solo esté controlada, sino que esté distribuida. Que no haya un único dominador que imponga estándares, modelos de negocio y modelos de dependencia.
OpenAI puede ser la chispa de un nuevo ciclo de innovación, o el símbolo de un poder acumulado difícil de contrarrestar. Lo relevante es que la veamos como lo que es: no sólo una startup espectacular que se ha leído de arriba a abajo el recetario de Silicon Valley, sino una arquitectura potencial del mañana.
Y cuando lo que está en riesgo es la forma en que se construye la industria de la inteligencia artificial, no basta con admirar la novedad: hay que anticipar las dinámicas, entender las alianzas, cuestionar los modelos y decidir qué futuro queremos. Porque, al igual que en la historia de los gigantes tecnológicos, lo que hoy parece inevitable, puede mañana convertirse en irreversible.
***Enrique Dans es profesor de Innovación en IE University.