La incorporación de la inteligencia artificial a la ciberseguridad ha dejado de ser un debate técnico o futurista. Nos encontramos ante un cambio estructural que afecta a cómo se protegen los sistemas digitales, pero también a cómo se ejerce el control y se toman decisiones en entornos críticos. La cuestión ya no es si utilizar inteligencia artificial, sino cómo hacerlo sin perder capacidad de gobierno sobre ella.

Durante décadas, la ciberseguridad se ha sostenido sobre el conocimiento experto de las personas. Los profesionales interpretaban señales, reconocían patrones y actuaban en función de su experiencia. Ese modelo sigue siendo imprescindible, pero resulta insuficiente en un entorno que genera volúmenes de información imposibles de gestionar manualmente.

La inteligencia artificial surge así, como una necesidad. Los sistemas actuales permiten analizar grandes cantidades de datos en tiempo real, detectar anomalías y proponer respuestas. No solo procesan información: generan conocimiento útil para la toma de decisiones. Este cambio obliga a replantear el papel de los profesionales. Si las máquinas analizan, priorizan y sugieren acciones, ¿qué queda para las personas?

Una forma útil de entenderlo es a través de dos modelos: el centauro y el minotauro.

El modelo centauro describe un equilibrio. La inteligencia artificial analiza y filtra; los analistas interpretan, aportan contexto y deciden. Es una colaboración que amplía la capacidad humana sin sustituirla, y sigue siendo el enfoque predominante en muchos entornos.

El modelo minotauro va más allá. Aquí, la inteligencia artificial no solo detecta, sino que actúa: bloquea accesos, aísla sistemas o responde automáticamente a incidentes.

Este cambio ya se refleja en la evolución de los centros de operaciones de seguridad. El modelo tradicional, basado en reglas, firmas y defensa del perímetro —casi como un castillo amurallado— está quedando obsoleto. Genera demasiado ruido, demasiados falsos positivos y deja espacios que los atacantes saben aprovechar.

En su lugar, empieza a consolidarse un nuevo paradigma: el llamado SOC agéntico. Se trata de centros de ciberseguridad apoyados en inteligencia artificial capaz de automatizar tareas, priorizar alertas y asistir a los analistas con información contextualizada.

Este enfoque responde a una realidad evidente: los ataques ya se producen a velocidad de máquina, mientras que muchas defensas siguen operando a un ritmo mucho más lento. La inteligencia artificial no solo cambia el tipo de amenaza, sino también la forma de defenderse.

Además, el propio uso de estas tecnologías introduce nuevos riesgos. Amenazas más sofisticadas, ataques personalizados, uso de deepfakes o técnicas avanzadas de evasión forman parte ya del escenario actual. A esto se suma el fenómeno del shadow AI”: herramientas utilizadas dentro de las organizaciones sin control ni supervisión, que amplían la superficie de exposición.

A esta evolución tecnológica se suma un cambio más profundo. Algunos actores de grandes tecnológicas han empezado a plantear abiertamente que la inteligencia artificial será un elemento central del poder estratégico en las próximas décadas. Más allá de productos concretos, lo relevante es el mensaje que se está lanzando. Además, avances recientes han demostrado hasta qué punto estas capacidades pueden evolucionar. Sistemas capaces de identificar y explotar vulnerabilidades críticas han obligado incluso a limitar su acceso. La inteligencia artificial deja así de ser solo una herramienta defensiva para convertirse en una capacidad estratégica sensible.

Todo ello apunta en la misma dirección: sistemas más rápidos, más integrados y con mayor capacidad de intervención. Pero también más difíciles de entender, supervisar y controlar.

Ahí es donde aparecen las dudas. A medida que estas tecnologías ganan protagonismo, aumenta la dependencia de sistemas complejos y, en muchos casos, poco transparentes. En entornos críticos, confiar en decisiones automatizadas sin una visibilidad completa introduce un nuevo tipo de riesgo. Además, el conocimiento derivado de los datos se convierte en un activo estratégico. Delegar su gestión en plataformas externas no es una decisión neutra, especialmente en sectores sensibles.

A este escenario se suma un elemento clave: la soberanía tecnológica europea. La mayoría de estas soluciones avanzadas se desarrollan fuera de Europa, lo que plantea una dependencia estructural en un ámbito especialmente crítico. Europa se enfrenta así a un equilibrio delicado. Necesita adoptar estas tecnologías para no quedarse atrás, pero también debe garantizar que esa adopción no implique perder control sobre sus datos, sus sistemas y sus decisiones.

La pregunta central es qué camino quiere seguir Europa: el del centauro, donde la inteligencia artificial potencia la capacidad humana bajo control institucional, o el del minotauro, donde la autonomía tecnológica avanza más rápido que la capacidad de gobernarla.

Porque la inteligencia artificial aplicada a la ciberseguridad es, ante todo, una forma de poder. Y como todo poder relevante, exige reglas claras, responsabilidad política y control.

***Rosa Díaz-Moles, Head of Public Sector S2 Grupo