Fotomontaje inspirado en Claude de Anthropic

Fotomontaje inspirado en Claude de Anthropic Manuel Ramírez El Androide Libre

Software

Anthropic desbarata la primera operación masiva de ciberespionaje con IA, dirigida por un grupo de hackers chino

La IA para desarrolladores de la compañía pudo perpetrar un ataque casi por sí solo, con una intervención humana ínfima.

Más información: "El cibercrimen ahora se está reorganizando": cómo los golpes policiales y la IA han abierto una nueva era para los 'hackers'

Publicada
Actualizada

Un reciente informe de Google presentado en España, que alertaba sobre la forma en la que los hackers potenciaban los virus de última generación con IA sentó un precedente: la inteligencia artificial ha sido un punto de inflexión para la ciberseguridad.

Eso es lo que detalla Anthropic, desarrolladora del modelo Claude en un extenso informe en el que recogen la primera campaña de ciberespionaje orquestada con IA. Un hecho documentado, identificado y detenido por la propia firma en septiembre de este año.

El grupo de hackers chino GTG-100 usó precisamente uno de los modelos de Anthropic para que de forma autónoma llevara a cabo intrusiones sofisticadas, sin intervención humana en la mayoría de casos.

Una campaña de ciberespionaje orquestada con IA

Todo comienza a mediados de septiembre, cuando Anthropic detectó una actividad fuera de lo común. Descubrieron que se trataba de una campaña de espionaje "altamente sofisticada", en la que se usó por supuesto el poder de la IA.

Más concretamente, los atacantes usaron la inteligencia artificial para ejecutar los ciberataques y realizar esta campaña de espionaje, de una forma que no tenía precedente alguno. Lo hicieron sin que un humano interviniese directamente.

Fotomontaje con el logo de Anthropic.

Fotomontaje con el logo de Anthropic. Manuel Fernández Anthropic

Según Anthropic, este grupo chino manipuló Claude Code, un modelo de inteligencia artificial pensado para el desarrollo. Es básicamente un asistente de codificación que se encarga de operar directamente en la terminal del desarrollador.

Un agente que puede interactuar con la base de código para realizar tareas que vayan desde depurar hasta responder preguntas, entre otras cosas. Interactúa con la terminal, analiza y entiende el código y se puede usar en un entorno colaborativo similar al de una conversación.

Algunas de las tareas que puede realizar Claude Code implican mapear y explicar bases de código completas en apenas segundos, realizar búsquedas inteligentes para comprender la estructura de las mismas y ejecutar comandos en la terminal.

El objetivo de estos hackers, dice Anthropic, no era otro que intentar infiltrarse en al menos una treintena de entidades, que incluían agencias gubernamentales y empresas tecnológicas, así como instituciones financieras y empresas fabricantes de productos químicos.

Claude, el principal producto de Anthropic.

Claude, el principal producto de Anthropic. Anthropic Omicrono

La misma Anthropic detalla con estupor cómo este sería el primer caso documentado de un ciberataque a gran escala ejecutado enteramente sin una intervención humana significativa, usando características de estos modelos hasta ahora desconocidas.

El informe de Anthropic detalló que este modelo realizó entre el 80 y el 90% de sus operaciones tácticas sin intervención humana directa. El grupo empleó un marco autónomo que integraba Claude Code y herramientas MCP para dividir los ataques en tareas discretas, asignadas a subagentes.

Entre estas tareas podíamos ver escaneo de vulnerabilidades, extracción y análisis de datos o validación de credenciales. El ataque se dividió en una serie de fases que dejaron estupefactos a los investigadores de Anthropic.

En la primera fase los operarios humanos del grupo seleccionaron los objetivos y desarrollaron el marco de ataque, con un sistema diseñado que comprometía de forma autónoma un objetivo seleccionado.

Infografía del ataque mencionado por Anthropic.

Infografía del ataque mencionado por Anthropic. Anthropic Omicrono

Los hackers humanos aseguraron que eran empleados de firmas de ciberseguridad legítimas para convencer a Claude que estaba siendo usada en testeos de ciberseguridad defensiva, explotando sus capacidades en este sentido.

Claude, una vez convencida, inspeccionó los sistemas e infraestructura de la organización atacada, identificando las bases de datos menos importantes. Por si fuera poco, Anthropic destacó cómo el modelo realizó esta tarea en un tiempo récord.

Básicamente, había descubierto las bases de datos más relevantes de estas organizaciones en un tiempo muy inferior al que hubiera llevado a cabo un hacker humano. Presentó niveles de inteligencia y capacidades de acción inusitadas.

Es aquí donde entraban en la segunda fase. Claude identificó y probó vulnerabilidades de seguridad en los sistemas de las organizaciones intervenidas, identificando sus bases de datos en el proceso.

Fotomontaje inspirado en Claude

Fotomontaje inspirado en Claude

El framework usado por los hackers chinos permitió usar a Claude incluso para obtener credenciales de acceso para conseguir información confidencial y extraer datos privados, clasificándolos además por su "valor informativo".

Claude pudo crear "puertas traseras" y extraer datos sin apenas necesitar una supervisión humana final. Las últimas fases consistieron en que el modelo de IA creara documentación del ataque creando archivos útiles con las credenciales y los sistemas analizados.

Estos documentos servirían, dice Anthropic, para "planificar la siguiente etapa de las operaciones cibernéticas del actor de amenazas". De nuevo, unos ataques que se realizaron sin que el humano tuviera que intervenir en el 80 y 90% de las ocasiones.

Y es que la misma empresa admite que si todo este proceso hubiera tenido que ser llevado a cabo por humanos, habría requerido una cantidad de tiempo brutalmente superior. "La IA generó miles de solicitudes por segundo", detalla la empresa.

Claude

Claude

Eso sí, no fue perfecta. Claude tuvo alucinaciones en algunos datos robados o directamente afirmaba que había extraído información de carácter secreto cuando era pública. Sin embargo, la problemática de este hecho va más allá.

El uso de la IA en entornos de desarrollo ha servido como punto de inflexión en materia de ciberseguridad, mostrando cómo tanto los ciberataques como las medidas de prevención sufrían un despunte en capacidades gracias a estos modelos.

Anthropic cree que las capacidades de estos modelos seguirán evolucionando, dando todavía más cancha a unos ataques cibernéticos cada vez más sofisticados. Ataques como este tumban unas barreras hasta hace pocos meses muy altas para perpetrar estos ataques.

Usando las configuraciones adecuadas, es posible usar sistemas de IA automatizados en largos períodos de tiempo para realizar el trabajo que de otra forma requeriría equipos completos de hacking.

Anthropic

Anthropic Reuters

De esta manera, atacantes con menos experiencia y que no tengan tantos recursos ahora tienen al alcance de su mano la posibilidad de realizar ataques sofisticados con unos pocos ajustes, una escalada incluso respecto a los hallazgos sobre ataques pasados también potenciados con IA.

Un ejemplo que pone Anthropic refiere a los hackeos de 'vibraciones' de este verano. En aquel momento, los operarios humanos seguían siendo necesarios para hacer estas operaciones; esto ha cambiado radicalmente en el ataque chino mencionado actualmente.

Cabe recalcar que en ningún caso se usaron herramientas de malware personalizado, sino herramientas abiertas orquestadas por la propia Calude Code, implicando una posible proliferación de este tipo de campañas,

Anthropic, en respuesta, bloqueó cuentas, mejoró los sistemas de detección y notificó a las entidades afectadas y autoridades al respecto para subsanar los efectos de este ataque.