Enrique Ávila, director del Centro de Referencia de Inteligencia Artificial del Estado Mayor de la Defensa del Mando Conjunto del Ciberespacio (MCCE).

Enrique Ávila, director del Centro de Referencia de Inteligencia Artificial del Estado Mayor de la Defensa del Mando Conjunto del Ciberespacio (MCCE). Incibe

España ENTREVISTA

Enrique Ávila, de tirar cables en el Ministerio del Interior a liderar la inteligencia artificial de la Defensa española

El responsable del Centro de Referencia en Inteligencia Artificial del Estado Mayor de la Defensa detalla sus planes inmediatos: laboratorios propios, cooperación con la industria y sistemas que apoyen el mando y control militar sin sustituir al ser humano en la toma de decisiones.

Más información: El primer director de ciberseguridad de la Casa Blanca y ex de la NSA: "Ningún sistema es infalible"

Publicada
Actualizada

Las claves

Enrique Ávila lidera el Centro de Referencia de Inteligencia Artificial del Estado Mayor de la Defensa, tras una amplia carrera en tecnologías de la Administración española.

Ávila desempeñó roles clave en ciberseguridad y gestión documental en el Tribunal Constitucional y la Guardia Civil, aplicando inteligencia artificial a políticas de seguridad.

El CRIA, bajo la dirección de Ávila, se centra en el despliegue de laboratorios de inteligencia artificial para ciberdefensa y operaciones, promoviendo la cooperación con universidades e industria.

La ética y la salvaguarda de decisiones humanas son fundamentales en la implementación de inteligencia artificial en defensa, según Ávila, manteniendo los valores geopolíticos europeos.

Antes de liderar el Centro de Referencia de Inteligencia Artificial (CRIA) del Estado Mayor de la Defensa, Enrique Ávila ya había recorrido buena parte del espectro tecnológico de la Administración española. Su carrera arranca en el sector financiero, “en el primer banco que hubo por teléfono en España”, donde llevó las comunicaciones, la seguridad informática y la protección de las tarjetas Visa “siendo un jovencito”.

La crisis del 92 cambió el rumbo de su vida. “Decidí sacarme unas oposiciones y entré en lo más bajo de la Administración, nivel 15, en el Ministerio del Interior. Me tocó tirar cable por el suelo, desplegar redes locales cuando no existía ni internet ni manuales para mirar. Aprendías o no hacías las cosas”, recuerda en entrevista con DISRUPTORES - EL ESPAÑOL.

De ahí pasaría al Tribunal Constitucional, donde puso en marcha los primeros sistemas de ciberseguridad y gestión documental: “Aquello me enseñó algo fundamental para la inteligencia artificial: los campos semánticos del conocimiento. En este caso, jurídico-constitucional. Ese bagaje me sirvió años después para entender lo que hoy se llama inteligencia artificial generativa”.

Más tarde regresó a Interior para ser jefe de seguridad de la información en la Guardia Civil, desde donde implantó el Esquema Nacional de Seguridad y participó en la elaboración de muchas de las normativas en materia de ciberseguridad que siguen vigentes. Pero su gran salto llegaría al frente del Centro de Análisis y Prospectiva, donde se dedicó -como él mismo explica- a “predecir posibles futuros”.

“Era el sueño de cualquier adolescente aficionado a la ciencia ficción. El objetivo era generar políticas públicas de seguridad más utópicas que distópicas”, explica. Allí creó una de las primeras factorías de inteligencia artificial aplicada a fuentes abiertas y comprobó el valor del multiidioma: “Me interesa saber qué están haciendo los australianos; ellos han incorporado parte de la filosofía maorí a su modelo de análisis. Eso me abrió mucho la mente”.

Pero este mismo año, el almirante Roca le propuso dar un paso más: dirigir el nuevo Centro de Referencia de Inteligencia Artificial del Estado Mayor de la Defensa, dependiente del Mando Conjunto del Ciberespacio (MCCE).

“Nuestra misión es desplegar, diseñar y construir laboratorios de inteligencia artificial aplicados a la defensa, sobre todo en ciberdefensa, mando y control y operaciones. Y hacerlo desde centros pequeños, coordinados entre sí, que compartan conocimiento y experiencia sin caer en estructuras mastodónticas”, explica a este medio.

La inteligencia artificial en el campo de batalla

Este escribano no puede evitar preguntarle cuál es el rol de la inteligencia artificial en el ámbito de la defensa, más allá de los discursos grandilocuentes, bajando de las musas al teatro. Y Enrique Ávila no duda en responder con igual tesón.

Los seres humanos no estamos computacionalmente dotados para tomar decisiones prácticamente en tiempo real. ¿Alguien cree que ahora las decisiones de compra o venta en bolsa las toma un operador humano? Son algoritmos avanzados que trabajan en milisegundos. En el ámbito de defensa ocurre igual: hay una sensorización absoluta generando millones de datos. Sus patrones deben ser reconocidos y las posibles líneas de acción generadas casi instantáneamente”.

El CRIA que lidera Enrique Ávila combinará dos vertientes: sistemas de apoyo a la decisión e infraestructura de laboratorio para “probar y equivocarse” con pilotos. “Lo primero es conocer qué necesita el negocio -nuestra defensa-; hablar con unidades especializadas, saber cómo mejorar sus eficiencias y aplicar la tecnología específica”.

Enrique Ávila, del Estado Mayor de la Defensa del Mando Conjunto del Ciberespacio, junto a Alberto Iglesias (DISRUPTORES - EL ESPAÑOL).

Enrique Ávila, del Estado Mayor de la Defensa del Mando Conjunto del Ciberespacio, junto a Alberto Iglesias (DISRUPTORES - EL ESPAÑOL). Incibe

De ahí que las iniciativas con que están trabajando en un inicio se abordarán “de lo más sencillo a lo más complejo” y ya están definidas para un primer año: “Vamos a tener una infraestructura propia, nuestro centro de datos con GPU por todos los sitios”.

Advierte, no obstante, de un mal muy extendido, aunque con menor recurrencia en las filas militares: la falta de madurez del dato. “Muchos proyectos de IA fracasan porque no hay un subyacente sólido: datos mal estructurados, semánticas pobres, etiquetados defectuosos. En defensa, eso está más interiorizado”, puntualiza.

Otro de los mandatos del CRIA es articular una mayor cooperación con universidades e industria. “En España hay equipos de investigación súper potentes en el ámbito de la defensa: gente cualificada, carismática e impresionante”. Por ello, la colaboración público-privada es ineludible, dado que “la mayoría del talento reside fuera de la institución pública porque no somos competitivos en salarios”.

Su prioridad pasa entonces por usar al Ejército como polo para atraer y, sobre todo, retener talento en Europa. “Este proyecto trasciende las capacidades nacionales. Nuestro mayor valor en la UE es la atracción de talento, y hay que dejarlo aquí”. En lo industrial, con preferencia por los intereses geopolíticos propios y la autonomía estratégica europea, “con las limitaciones que aún tenemos”.

En prospectiva, para recordar sus tiempos al frente de esta unidad de la Guardia Civil, Enrique Ávila ve un viraje ya en marcha, “de los grandes modelos hacia sistemas de agentes específicos”. ¿La consecuencia? Inteligencia artificial distribuida allá donde se genere el dato y sea necesario tomar decisiones.

“Cada dispositivo de defensa, si tiene capacidad de cómputo y comunicación, tendrá cierta inteligencia propia para generar pequeñas acciones. Pero por encima, siempre existirá un ‘estado’ que agregue esas microdecisiones”, sentencia.

IA sí, pero con límites

Cuando se habla de inteligencia artificial, o cualquier otra tecnología digital, aplicada a la defensa surge el inevitable dilema moral sobre sus potenciales usos letales o las consecuencias de cualquier aplicación defectuosa o mal gestionada. Sin ir más lejos, el conflicto de Israel y Gaza nos ha dejado buenas pruebas de hasta dónde puede llegar la IA en una guerra.

Ávila tiene claro que no estamos jugando con una tecnología inofensiva: “No hablamos de la IA generativa para escribir discursos. Hablamos de inteligencia aplicada a mando y control, decisiones automatizadas en tiempo real. En nuestro modelo geopolítico, el humano está siempre en el proceso de toma de decisión. La última decisión, desde luego, nunca se dejará a una automatización”.

Así pues, la ética forma parte de la arquitectura del sistema de IA en defensa: “Incorporamos salvaguardas estructurales que impiden decisiones autónomas con riesgo para la vida humana. Y sabemos que otros modelos geopolíticos [como China] no lo hacen. Pero no debemos renunciar a nuestros valores, porque si lo hacemos, también perderemos desde el punto de vista moral”.