Kratos XQ-58 Valkyrie en vuelo

Kratos XQ-58 Valkyrie en vuelo AFRL

Tecnología

Drones que pueden decidir ejecutar por sí mismos, la última frontera militar de EEUU es casi una realidad

Mientras las preocupaciones sobre el uso de la inteligencia artificial aumentan, algunas potencias buscan el desarrollo de armamento con IA.

22 noviembre, 2023 18:55

Con el impresionante auge de la inteligencia artificial, surgieron muchas preguntas en España sobre sus consecuencias en diferentes campos. Cómo afectaría la IA a la desinformación, a Internet y más importante aún, al aspecto militarY es que una de las preocupaciones más importantes radica en el uso de IA para armas avanzadas que puedan matar de forma autónoma. Es algo que ciertos países estarían buscando.

Según recoge The New York Times, tanto Estados Unidos como China (entre otras naciones) estarían avanzando enormemente en el desarrollo y despliegue de una tecnología que daría poder de decisión a drones autónomos equipados con inteligencia artificial. Es decir, robots que podrían decidir por sí solos matar a humanos.

Esto abre la puerta a la creación de armas letales completamente autónomas, capaces de seleccionar objetivos usando únicamente inteligencia artificial. Uno de los temas centrales de la ciencia ficción moderna, y que ya ha calado entre algunos expertos que han calificado estas decisiones como vitales para la supervivencia de la raza humana.

Armas autónomas con IA

El informe revela que Estados Unidos, de la mano del Pentágono y junto a otras naciones están avanzando en el desarrollo de armamento autónomo potenciado con inteligencia artificial. Una perspectiva que ha causado que otras tantas naciones contrarias a esta decisión se encarguen de proponer medidas para evitar este distópico escenario.

Expertos en el tema aseguran que el uso de armas calificadas como robots capaces de matar sentaría un precedente crítico para el desarrollo de la humanidad al entregar a máquinas autónomas la capacidad de decidir sobre la vida y la muerte en el campo de batalla. Y no es en absoluto una teoría, ya que esto está pasando.

Predator B

Predator B Ejército del Aire Omicrono

El foco está puesto en el uso de drones, tremendamente popularizado a lo largo de los últimos años en conflictos como el de Medio Oriente y en Ucrania. Unos dispositivos que en la mayoría de ocasiones ha necesitado de operarios humanos para realizar misiones que impliquen la muerte de personas. Ahora, se están desarrollando soluciones que permitirían seleccionar y acabar con objetivos humanos de forma autónoma.

Y es que este verano, la subsecretaria de defensa de los Estados Unidos, Kathleen Hicks, anunció que el ejército estadounidense contaría con "sistemas autónomos" en una escala de "varios miles". No solo eso, sino que estos sistemas estarían disponibles en los próximos dos años. Hicks habló de la necesidad de contar con plataformas "pequeñas, inteligentes, baratas y numerosas" para competir en la carrera armamentística avanzada contra China.

XQ-58A Valkyrie

XQ-58A Valkyrie 88 Air Base Wing Omicrono

Hay que aclarar que el uso de armas sin operario no es en absoluto algo nuevo, ya que existen armas como los misiles autodirigidos que no necesitan de manejo humano. Sin embargo, estas armas hacen uso de ciertas tecnologías como radares y sensores para fijar objetivos que usualmente ya están prefijados. El cambio radica en la inteligencia artificial y en la capacidad de tomar decisiones que ella otorgaría a estas armas.

Si bien hay mecanismos, al menos en el bloque estadounidense, para regular de forma parcial el uso de armas autónomas, la preocupación es vigente. Por ejemplo, el Pentágono prohíbe taxativamente tanto el uso como el desarrollo de cualquier arma autónoma sin el consentimiento y aprobación de los funcionarios del Departamento de Defensa.

[Los Tesla apagan el piloto automático antes de un accidente: tienes 2 segundos para evitarlo]

Sin embargo, operarios dentro de las fuerzas militares estadounidenses como Frank Kendall, secretario de la Fuerza Aérea, dijo en entrevistas que estas máquinas necesitarían esta capacidad de tomar acción letal por sí misma. "Las decisiones individuales versus no tomar decisiones individuales es la diferencia entre ganar y perder. Y no vas a perder", aseguró.

Por si fuera poco, Thomas X Hammes, oficial retirado de la Infantería de Marina y ahora investigador de la Universidad de Defensa Nacional del Pentágono, calificó la necesidad de construir y usar estas armas autónomas como un "imperativo moral", asegurando que la negativa a ello supondría muertes "tanto militares como civiles".

MQ-9B despegando desde un portaaviones

MQ-9B despegando desde un portaaviones General Atomics

A principios de año, el Pentágono anunció el desarrollo de drones con inteligencia artificial que se desplegarían en forma de enjambres. En agosto, Kathleen Hicks defendió estos sistemas como un método para compensar la ventaja numérica que el Ejército Popular de Liberación de China posee sobre el estadounidense, asegurando que estos enjambres serían "más difíciles de atacar".

Medidas para evitarlo

Las voces en contra no son pocas. Varios gobiernos de todo el mundo están pidiendo a la ONU que se adopten una serie de límites legales que restrinja no solo el uso de armamento potenciado con inteligencia artificial, sino el uso de estos drones. Estados Unidos, junto a otros países como Rusia, Australia o Israel, son contrarios a estas medidas, argumentando que no es necesaria ninguna ley internacional al respecto —pese a los acuerdos ya producidos para limitar estas tecnologías—.

[Armas sin inteligencia artificial autónoma, el plan de EEUU y China para limitar a esta tecnología]

El negociador principal que actualmente está mediando en estas negociaciones, Alexander Kmentt, asegura que este sería uno de los puntos de inflexión "más importantes para la humanidad. ¿Cuál es el papel de los seres humanos en el uso de la fuerza? Esa es una cuestión de seguridad absolutamente fundamental, una cuestión jurídica y una cuestión ética", explicó.

Los contrarios al desarrollo de estas armas explican que estas armas no contarían con la correspondiente supervisión humana, impidiendo que estas armas reciban una autorización para realizar ataques individuales. Así, el factor moral que los humanos tienen en el campo de batalla respecto a decidir sobre la vida o la muerte desaparecería por completo. 

Dron Reaper lanzando un misil

Dron Reaper lanzando un misil US Army

A esto se le suman hechos como que la IA puede llegar a ser errática y caer en potenciales falsos positivoscon errores en situaciones críticas como el reconocimiento de objetivos. Una situación que ya se ha dado por ejemplo en los casos de accidentes con coches autónomos al estilo Tesla, que han acabado en catastróficas consecuencias.

Grupos de control de armas como el Comité Internacional de la Cruz Roja, junto a delegaciones nacionales como las de Austria o Nueva Zelanda han pedido prohibir por completo estas armas letales. Si no se diera este caso, las exigencias piden que estas armas cuenten con un control humano total, y que se usen en áreas muy concretas y limitadas para recortar sus posibles efectos en la población.

Dron misil.

Dron misil.

La delegación estadounidense, por su parte, defiende por completo el uso de estas armas. "Se ha demostrado que las armas inteligentes que usan ordenadores y funciones autónomas para desplegar la fuerza de manera más precisa y eficiente reducen los riesgos de daños a civiles y bienes civiles".

También hay que recordar que la semana pasada Joe Biden y Xi Jinping se reunieron el pasado 15 de noviembre durante la cumbre del Foro de Cooperación Económica Asia-Pacífico para discutir posibles límites al uso de esta tecnología. La secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, aseguró que los dos líderes buscarían "gestionar responsablemente la competencia y trabajar juntos donde nuestros intereses se alinean".

Hemos de recordar que la revolución de la inteligencia artificial en la que se ha sumido el mundo tecnológico en estos últimos años ha despertado voces contrarias principalmente de expertos y científicos, que auguran consecuencias fatales para la humanidad por el uso de estas tecnologías en campos inadecuados.

Esto ha llevado a que potencias como la UE, Reino Unido, China o Estados Unidos firmen una declaración conjunta (con España como participante) en la que se promete la cooperación internacional para evitar las consecuencias más perniciosas del uso de estos sistemas inteligentes.

También te puede interesar...