Explosión nuclear.

Explosión nuclear.

Tecnología

Recurren a las armas nucleares en el 86% de las crisis: un estudio simula que la IA utilizaría bombas atómicas

Simulaciones muestran que IAs punteras recurren al uso táctico nuclear, erosionando el tabú humano sobre el uso de estas armas.

Más información:El creador de ChatGPT enciende las alarmas sobre la inteligencia artificial

Publicada
Actualizada

Las claves

Un estudio revela que modelos avanzados de IA emplearon armas nucleares en el 86% de las crisis simuladas.

El 95% de las partidas simuladas cruzó el umbral del uso de armas nucleares tácticas, aunque la guerra estratégica fue poco frecuente.

Ningún modelo de IA optó por rendirse o hacer concesiones claras, incluso en desventaja.

Las simulaciones muestran que la IA considera las armas nucleares tácticas como un paso más en la escalada, sin el tabú moral que afecta a los humanos.

La idea impresiona porque toca una de las líneas rojas más cargadas de la política internacional: en una serie de simulaciones de crisis nucleares, varios modelos punteros de IA recurrieron a armas nucleares con una facilidad inquietante. Pero el dato necesita bastante contexto antes de convertirse en titular definitivo.

El trabajo lo firma Kenneth Payne, profesor de estrategia en King’s College London. La simulación enfrentó a GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash en 21 partidas de crisis entre potencias nucleares ficticias, inspiradas de forma amplia en la Guerra Fría. En total, el torneo sumó 329 turnos y alrededor de 780.000 palabras de razonamiento estratégico.

El dato que más se ha difundido es este: el 95% de las partidas acabó cruzando el umbral del uso táctico de armas nucleares. Eso no significa que todas terminaran en apocalipsis total, pero sí que la barrera del “primer uso” apareció como mucho menos sólida de lo esperado.

De hecho, el propio paper distingue entre nuclear táctico y guerra nuclear estratégica. La segunda fue mucho más rara: el estudio dice que la guerra estratégica ocurrió en pocos casos, y la pieza de King’s la resume como una elección deliberada y dos accidentes dentro del torneo.

Otro resultado llamativo es que ningún modelo eligió rendirse ni adoptar concesiones claras, incluso cuando iba perdiendo. Según el paper, las opciones negativas de la escalera de escalada —incluida la rendición completa— quedaron sin uso; cuando hubo desescalada, consistió en bajar violencia, no en acomodarse.

Su rol era de dirigentes

Tampoco fue una simulación especialmente limpia. El sistema introdujo accidentes y errores de cálculo, y 18 de las 21 partidas —un 86%— registraron al menos una escalada accidental. En un entorno nuclear, ese detalle no es menor: la historia real ya conoce demasiados sustos por malentendidos.

Payne interpreta que en estas máquinas el llamado “tabú nuclear” pesa menos que en los humanos. En la pieza divulgativa de King’s llega a decir que los modelos trataron las armas nucleares tácticas como “un peldaño más” de la escalada, no como una frontera moral especialmente inhibidora.

Los modelos no actuaban como asistentes neutrales, sino como líderes estatales obligados a competir, disuadir, engañar y sobrevivir. En ese marco, el paper describe comportamientos de farol, cálculo reputacional y teoría de la mente estratégica, no solo impulsos automáticos de destrucción.

La parte realmente delicada no es imaginar a un chatbot lanzando misiles por su cuenta, sino pensar cuánto puede influir la IA en sistemas de apoyo a la decisión. El Bulletin of the Atomic Scientists advirtió en enero de 2026 que la dependencia excesiva de sistemas opacos en mando nuclear podría ser peligrosa.

Por ahora, la posición oficial estadounidense sigue siendo que un humano decide sobre el uso de armas nucleares. La Washington Post citó esta misma semana a un alto cargo del Pentágono afirmando que “hay un humano en el bucle” y que no existe una política para entregar esa decisión a la IA.