Últimamente oigo y leo mucho sobre frontier AI (IA de frontera), este término se refiere a los modelos de inteligencia artificial más avanzados, potentes y de propósito general existentes en la actualidad. Es un concepto que ha ido evolucionando desde los chatbots inteligentes hasta convertirse en sistemas capaces de razonamiento profundo y autonomía.

Al tratarse de las versiones más actuales y más potentes de los modelos (LLMs) creados por las estadounidenses Anthropic, OpenAI, Google, Meta y X; así como las chinas Alibaba, Tencent y DeepSeek; el mundo está descubriendo capacidades imprevistas que surgen durante el entrenamiento de estos modelos tan potentes.

La consecuencia de todo lo comentado más arriba es que nacen múltiples riesgos asociados a la IA de frontera que, en muchos casos, no estaban previstos ni por los padres de estas criaturas. Cada vez hay más gente que considera que estos modelos ya no son meras herramientas, sino activos estratégicos nacionales. La preocupación no es solo que un cibercriminal use estos modelos para hackear un banco, una utility o cualquier otro tipo de organismo, sino que cualquier país lo use para paralizar la infraestructura crítica de otro.

No quiero darle ideas a ningún gobernante poco consciente de sus actos, pero es innegable que me preocupa mayúsculamente el hecho de que los “propietarios” de estos modelos estén concentrados en Estados Unidos y en China. Es cierto que en India (Sarvam AI, Ola Krutrim y Hanooman), en Emiratos Árabes (TII) o en Francia (Mistral AI) están naciendo algunas alternativas, pero tengo muchas dudas de que puedan jugar en la liga de los dos países dominantes porque la inversión en CAPEX es brutal y el retorno, la viabilidad económica de estas empresas por sí solas, es dudoso.

Veremos lo que pasa en el futuro, pero no olvidemos que cuando hablamos de inteligencia artificial se considera que un trimestre equivale a un año. La elevada concentración de poder en las 5+3 empresas mencionadas más arriba es real, igual que el riesgo de que estas empresas se conviertan en estados digitales o que acaben controlados por sus países de origen (si no lo están ya). Tengo dudas de que el resto del mundo sea capaz de mantener su soberanía tecnológica. Es posible, aunque no deseable, que todos acabemos bajo el control de este oligopolio.

Siempre que hablamos de IA de frontera pensamos en los evidentes riesgos de ciberseguridad, pero esto está cogiendo tal dimensión que deberíamos preguntarnos por los riesgos geopolíticos, por su impacto en la economía mundial y por si estamos entrando en una era que, salvando las distancias, recuerda los imperios del pasado. Habrá que ver si EEUU y China son como el Imperio Romano, como el Imperio Chino, como los “Bárbaros” y los Hunos …; y habrá que ver qué papel juegan los Reinos Periféricos.

Le he preguntado a la IA sobre las lecciones que nos enseña la historia y me dice que los riesgos de este oligopolio son los mismos dos que enfrentaban los imperios antiguos: la hiperextensión (controlar toda la inteligencia del mundo es demasiado caro. El CAPEX es el equivalente a mantener legiones en Britania, Egipto y Germania al mismo tiempo) y la decadencia interna (que estas empresas se vuelvan demasiado burocráticas y solo se preocupen por proteger sus ingresos por suscripciones para monetizar su brutal CAPEX).

Teniendo en cuenta que estos modelos están entrenados para complacernos y para conducir nuestra opinión, no me quedo muy tranquilo con su respuesta. Igual que no me quedo tranquilo pensando que estos imperios se disputan la capacidad de razonamiento. Es evidente que quien domine estos modelos (por ejemplo, Mythos y GPT-5) tendrá en sus manos una concentración de poder muy peligrosa. ¿Soy al único que le preocupa que uno de estos países esté dirigido por una persona con evidentes problemas y el otro sea una dictadura?