Momento de la constitución del pleno de Reaim.

Momento de la constitución del pleno de Reaim. M. Dylan - Europa Press.

Observatorio de la Defensa

El REAIM, en A Coruña, sienta las bases para el uso responsable de la inteligencia artificial en el ámbito militar

En un ámbito donde están en juego vidas humanas y decisiones de alto impacto, la tecnología debe ser una herramienta de apoyo y no un sustituto del criterio humano.

Más información: Margarita Robles reivindica en A Coruña una defensa con "valores éticos" con la IA como "esencial"

Publicada

La ciudad gallega de A Coruña se convirtió los pasados días 4 y 5 de febrero en el epicentro del debate global sobre seguridad y tecnología con la celebración del encuentro del III REAIM (Responsible AI in the Military Domain), que congregó a representantes de Estados, organizaciones internacionales, industria, academia y sociedad civil.

La cita confirmó la creciente preocupación —y también la oportunidad— que supone la incorporación de la inteligencia artificial (IA) al ámbito militar, como quedó reflejado en el documento Pathways to Action, una hoja de ruta que aspira a dar un paso decisivo: pasar del compromiso político y las declaraciones de principios a su aplicación práctica en el uso responsable de la IA con fines militares.

Una de las conclusiones más destacadas del texto es el reconocimiento explícito de que la IA, si está bien diseñada y se emplea con criterios claros, puede contribuir a la paz y la seguridad internacionales.

En la apertura del encuentro, el teniente general del Ejército de Tierra José María Millán, director del Centro de Sistemas y Tecnologías de la Información y las Comunicaciones (CESTIC), destacó la relevancia de la cita “en un momento decisivo”, marcado —según subrayó— por “la urgencia de transformar los principios generales en prácticas adaptadas al contexto y operativamente viables”.

Todo ello de cara a avanzar hacia una "gobernanza estructurada, coherente y operativa". "La IA no sustituye al juicio humano pero amplifica sus consecuencias, el reto no es solo tecnológico, es político, ético e institucional".

Algo que subraya el propio documento de conclusiones al afirmar que “el uso y desarrollo responsables de la inteligencia artificial en el ámbito militar pueden y deben contribuir a la paz y la seguridad internacionales”, poniendo el acento en su capacidad para reducir riesgos humanos y mejorar la calidad de las decisiones.

Entre esos beneficios potenciales, los participantes resaltan que, aplicada correctamente a lo largo de todo su ciclo de vida, “las capacidades militares basadas en IA pueden ayudar a reducir la exposición del personal al peligro, mejorar la protección de los civiles y respaldar una toma de decisiones más oportuna y mejor informada”.

Margarita Robles junto a autoridades en el Reaim.

Margarita Robles junto a autoridades en el Reaim. M. Dylan - Europa Press.

En escenarios cada vez más complejos y saturados de información, la IA se presenta como una herramienta de apoyo clave para procesar datos a una velocidad inalcanzable para el ser humano.

Pero el consenso alcanzado en el A Coruña huye de cualquier tono complaciente. Los mismos actores que destacan las oportunidades advierten de que estos avances van acompañados de riesgos relevantes.

El texto recuerda que la introducción de IA en el ámbito militar “puede presentar riesgos a lo largo de diversas facetas del dominio militar”, citando de forma expresa amenazas como la “mala interpretación, los sesgos, la pérdida de control o la escalada” involuntaria de los conflictos.

Estos peligros, subrayan las conclusiones, no se limitan al momento del uso operativo en el campo de batalla. Pueden aparecer en cualquiera de las fases del ciclo de vida de los sistemas: desde el diseño y el desarrollo inicial, pasando por el despliegue, hasta su eventual retirada. De ahí la insistencia en la necesidad de anticiparlos y gestionarlos de forma sistemática.

Por este motivo, REAIM hace hincapié en la urgencia de “mejorar los entendimientos comunes sobre los riesgos que pueden presentarse a lo largo de los ciclos de vida de la IA en el ámbito militar”.

Se trata de una aproximación preventiva que parte de una idea central: la IA debe reforzar el juicio humano, nunca sustituirlo, y su uso sin salvaguardias adecuadas podría socavar precisamente los objetivos de estabilidad y seguridad que se pretende proteger.

Primacía del ser humano

El documento aprobado en A Coruña consolida el concepto de “responsabilidad por diseño”, que aboga por integrar principios éticos, jurídicos y operativos desde las primeras fases de planificación y desarrollo de los sistemas de IA.

En un ámbito donde están en juego vidas humanas y decisiones de alto impacto, la tecnología debe ser una herramienta de apoyo y no un sustituto del criterio humano.

En la misma línea, las conclusiones reafirman un principio fundamental: la responsabilidad legal y ética recae siempre en los Estados y en las personas, no en las máquinas ni en los algoritmos.

Evitar los llamados “vacíos de responsabilidad” se considera esencial para preservar la confianza internacional y garantizar el respeto al derecho internacional, incluido el derecho internacional humanitario y de los derechos humanos.

De los principios a la práctica nacional

El texto baja también al terreno de las recomendaciones concretas. Entre ellas, destaca la necesidad de reforzar la formación del personal militar, para que quienes operan sistemas basados en IA conozcan tanto sus capacidades como sus límites.

Se insiste asimismo en la realización de evaluaciones de riesgo periódicas, pruebas rigurosas (TEVV), revisiones legales de armas y métodos de guerra, así como en el mantenimiento de registros y auditorías que aseguren la trazabilidad y la explicabilidad de los sistemas.

Además, se propone la designación de puntos focales nacionales, como responsables de IA, que faciliten la coordinación interna y la cooperación internacional.

Cooperación internacional

En el plano global, el REAIM subrayó la urgencia de medidas de fomento de la confianza, como el intercambio voluntario de información sobre políticas nacionales, marcos de gobernanza y buenas prácticas, así como la organización de ejercicios conjuntos, seminarios regionales y canales de comunicación de crisis para evitar escaladas no deseadas.

Una atención especial mereció la creación de capacidades en países en desarrollo, con el objetivo de reducir brechas tecnológicas y evitar que el uso responsable de la IA militar se convierta en un privilegio reservado a unos pocos.

Industria, academia y sociedad civil

Por último, REAIM destacó el papel esencial de la industria, la academia y la sociedad civil en la construcción de una IA militar segura y fiable.

Su colaboración con los Estados se considera clave para mejorar la interpretabilidad, la robustez y la seguridad de los sistemas, así como para afrontar los retos de la interacción entre humanos y máquinas.

El mensaje que deja A Coruña es inequívoco: el debate sobre la inteligencia artificial en el ámbito militar ha entrado en una nueva fase.

Ya no basta con definir principios; el desafío ahora es convertirlos en acciones concretas, con responsabilidad, cooperación internacional y una visión de largo plazo.