Ilustración de un hacker usando IA en un ataque informático

Ilustración de un hacker usando IA en un ataque informático Omicrono

Software

Un hacker usa Claude y ChatGPT para realizar un ataque con inteligencia artificial comercial de forma exitosa

El suceso ha tenido lugar en México, donde el atacante ha roto las defensas de numerosos organismos gubernamentales de Jalisco, Michoacán y Tamaulipas.

Más información: El gobierno de Estados Unidos amenaza a Anthropic si no permite el uso de su IA para operaciones militares

Publicada
Actualizada

Las herramientas de inteligencia artificial están transformando el panorama de la seguridad digital a nivel global.

Un reciente informe técnico elaborado por la empresa de ciberseguridad Gambit Security ha revelado un caso en el que un atacante utilizó el chatbot Claude, desarrollado por la compañía Anthropic, para vulnerar las defensas de múltiples instituciones gubernamentales en México.

Este incidente subraya la capacidad de los modelos lingüísticos avanzados para ser manipulados y convertidos en instrumentos de infiltración altamente eficientes cuando caen en las manos equivocadas.

El ataque, que se prolongó durante aproximadamente un mes a partir de diciembre, resultó en la sustracción de 150 GB de información confidencial.

Entre los datos comprometidos se encuentran registros pertenecientes a 195 millones de contribuyentes, datos electorales, credenciales de acceso de empleados públicos y archivos del registro civil.

Las investigaciones sugieren que el usuario anónimo instruyó a la inteligencia artificial para que actuara bajo el rol de un experto en intrusiones de élite, localizando vulnerabilidades en las redes gubernamentales y redactando scripts informáticos para automatizar el robo de información a gran escala.

Las instituciones afectadas incluyen organismos de gran relevancia como el Servicio de Administración Tributaria y el Instituto Nacional Electoral de México.

Además, el alcance del ataque se extendió a administraciones estatales en lugares como Jalisco, Michoacán y Tamaulipas, así como a servicios públicos de agua en Monterrey y el registro civil de la capital mexicana.

Aunque algunas autoridades locales han emitido comunicados negando el impacto directo en sus redes internas, los investigadores de seguridad mantienen que la escala del acceso fue masiva y que se ejecutaron miles de comandos dentro de los sistemas informáticos oficiales.

Para lograr que el modelo de lenguaje colaborara en estas acciones ilícitas, el atacante empleó técnicas de manipulación conocidas como ingeniería de instrucciones. Inicialmente, el chatbot detectó intenciones maliciosas y se negó a cooperar siguiendo sus protocolos éticos.

Sin embargo, el intruso logró evadir las restricciones de seguridad mediante una técnica de evasión sistemática, convenciendo al sistema de que estaba realizando pruebas legales de seguridad bajo un programa de recompensas por errores.

Bajo este pretexto, la herramienta generó informes detallados con planes de ejecución inmediata, indicando al operador humano exactamente qué objetivos internos atacar y qué credenciales utilizar para avanzar en la red.

El informe también destaca que, cuando el modelo de Anthropic presentaba dificultades técnicas o se negaba a proporcionar ciertos datos específicos, el atacante recurría a ChatGPT de OpenAI para obtener perspectivas adicionales.

De esta manera, el autor de la intrusión pudo calcular la probabilidad de detección de sus operaciones y entender cómo realizar movimientos laterales a través de las redes gubernamentales.

Tanto OpenAI como Anthropic han confirmado que han suspendido las cuentas involucradas y están utilizando este caso para entrenar a sus sistemas y evitar que situaciones similares ocurran en el futuro.

Gambit Security, la firma israelí responsable del hallazgo, descubrió estas brechas mientras ponía a prueba nuevas técnicas de detección de amenazas en la red.

Al rastrear las conversaciones del atacante con la inteligencia artificial, pudieron documentar cómo el intruso buscaba de forma oportunista cualquier identidad gubernamental disponible, preguntando al modelo sobre otros sistemas donde pudiera almacenarse información sensible de los ciudadanos.

Este comportamiento demuestra que la tecnología facilita ataques más amplios y menos específicos, aumentando exponencialmente el riesgo para las infraestructuras críticas de cualquier nación.