Lo bueno de las revoluciones tecnológicas es que muchas de sus características suelen repetirse de forma consistente a lo largo del tiempo. Hoy les pido que volvamos a hacer memoria para reencontrarnos con el presente de la inteligencia artificial.

A mediados de los años sesenta, los corredores de bolsa solían actuar a gritos, comprando y vendiendo acciones como si no hubiera un mañana. Sus análisis de inversión se basaban en un compendio de informes y papeles varios, además de la sempiterna intuición. En esos tiempos cuasi prehistóricos, Reuters tuvo una idea tan simple como revolucionaria: colocar una pantalla en cada mesa.

Aquel invento -un terminal conectado por cable al corazón financiero de Londres- acabaría por cambiar la historia de los mercados. Bloomberg llegó dos décadas después para perfeccionar el modelo con información en tiempo real, análisis, gráficos y noticias fundidos en una misma pantalla.

Fue el inicio de una nueva era, el comienzo de una transformación estructural con la forma de una infraestructura global de información, concentrada en muy pocas manos.

Así es como, durante las décadas siguientes, Reuters y Bloomberg construyeron sus respectivos imperios sobre tres pilares: costes fijos altísimos, costes marginales mínimos y efectos de red que convertían cada nuevo usuario en una ventaja competitiva. Cuantos más clientes usaban sus terminales, más valiosos se volvían para los demás. Cuanto más confiables eran sus datos, más difícil resultaba discutir su hegemonía. En apenas veinte años, dos compañías privadas controlaban buena parte del flujo informativo de los mercados globales.

Hoy, más de medio siglo después, ese patrón de concentración se está repitiendo.

La nueva versión de aquel oligopolio informativo ya no gira en torno a los mercados, sino alrededor de la inteligencia artificial. Si antaño el poder residía en transmitir datos, hoy se encuentra en interpretarlos, generarlos y decidir su relevancia. Mientras que Bloomberg y Reuters moldearon la economía financiera del siglo XX, las grandes tecnológicas -OpenAI, Google, Microsoft, Anthropic, Meta o xAI- están moldeando la economía cognitiva del siglo XXI.

Las condiciones son sorprendentemente parecidas. Entrenar un modelo de lenguaje requiere inversiones multimillonarias, acceso privilegiado a chips, energía y talento. Los costes fijos son enormes, pero el coste de cada nueva interacción tiende a cero. Cuantos más usuarios utilizan el sistema, mejor se vuelve el modelo. Cuanto más se perfecciona, más difícil resulta abandonarlo. La confianza y la escala, otra vez, se convierten en barreras de entrada casi infranqueables.

El resultado es un oligopolio cognitivo global, formado por apenas un puñado de empresas que concentran no solo la infraestructura técnica, sino también la capacidad de definir qué es información y cómo debemos entenderla.

En otras palabras: el control del dato ha dado paso al control del sentido.

Porque quien controla los modelos controla también el marco interpretativo. Decide qué fuentes se priorizan, qué sesgos se amplifican y qué temas desaparecen del radar. Si en los ochenta los mercados financieros se movían al ritmo de los terminales de Bloomberg, hoy la conversación pública, el debate político o la estrategia empresarial empiezan a orbitar alrededor de lo que dicen (o sugieren) los modelos generativos.

La historia, como digo, se repite una y otra vez. Cada revolución tecnológica promete democratizar el acceso al conocimiento. El telégrafo lo hizo; internet también. Y la inteligencia artificial no deja de repetir ese mantra. Pero el pasado enseña que la democratización sin soberanía ni control de la competencia es una ilusión frágil.

Cuando todos dependemos de las mismas plataformas para producir y consumir información, lo que se democratiza no es el conocimiento, sino la vulnerabilidad.

El riesgo es evidente: las grandes plataformas no solo centralizan los datos, sino también las herramientas para interpretarlos. Las empresas que pueden pagar los modelos más potentes acceden a una inteligencia de primer nivel; el resto se conforma con versiones filtradas, capadas o atrasadas. En la esfera pública, los algoritmos generan una nueva capa de opacidad, donde el origen de la información se diluye y los sesgos son imposibles de rastrear.

Y en el plano geopolítico, la dependencia es total: basta un cambio de política en Silicon Valley para alterar el ecosistema digital de todo un planeta.