Hackeo a servicios informáticos

Hackeo a servicios informáticos iStock- Sashkinw Omicrono

Software

Google alerta cómo los 'hackers' usan virus informáticos con IA que van cambiando para saltar protecciones de ciberseguridad

El Grupo de Inteligencia contra Amenazas de la firma ha detectado indicios de la evolución que ha supuesto la inteligencia artificial en estos ataques.

Más información: "El cibercrimen ahora se está reorganizando": cómo los golpes policiales y la IA han abierto una nueva era para los 'hackers'

Publicada

La inteligencia artificial no se ha convertido solo en una herramienta vital para muchos en España. También se ha postulado como una tecnología revolucionaria para los hackers, que ya la están aprovechando de todas las formas posibles.

El Grupo de Inteligencia contra Amenazas de Google (GTIG) ha indagado en este sentido, desvelando algunos avances muy preocupantes en el uso y aplicación de herramientas de inteligencia artificial en ataques con malware e ingeniería social.

En palabras del GTIG, los hackers ya no se limitan a usar IA para aumentar la productividad de sus ataques, sino que están desplegando soluciones de malware potenciado con IA en operaciones actualmente en curso.

IA en el malware: la nueva frontera

Este informe es una actualización de uno ya realizado por el grupo en 2025, que exploraba el uso indebido de la IA generativa con fines maliciosos. Esta actualización va más allá y revela algunos logros por parte de los atacantes muy llamativos.

Por ejemplo, el GTIG ha descubierto por primera vez el uso de IA 'Just-in-time' en software malicioso. Más concretamente, estos sistemas se usan con modelos de lenguaje LLM durante su fase de ejecución.

Hacker

Hacker Getty Images

Estas herramientas generan scripts maliciosos durante su ejecución de forma totalmente dinámica, ofuscando su propio código para evitar la detección de los mismos y aprovechando los modelos de IA para crear funciones maliciosas bajo demanda.

Obviamente, muchos de los grandes modelos de IA como GPT o Claude equipan sistemas de seguridad para evitar precisamente que se puedan usar de forma maliciosa. La solución de los atacantes es la ingeniería social.

Aplicando este concepto en sus mensajes, los atacantes pueden 'engañar' a modelos como Gemini para que accedan a realizar algunas tareas que de otra forma, harían saltar las alarmas.

Por ejemplo, los hackers estarían haciéndose pasar por estudiantes en una competición o por investigadores de ciberseguridad para persuadir a estos modelos, pidiéndoles todo lo que ellos quieran.

Por si fuera poco, se están publicando una buena cantidad de ofertas en herramientas multifuncionales basadas en IA para, entre otras cosas, desarrollar malware, investigar y explotar vulnerabilidades o apoyar campañas de phishing.

Hackeos por encargo: así pueden tumbar tu web por menos de 20 dólares

Hackeos por encargo: así pueden tumbar tu web por menos de 20 dólares @cbpsc1 Unsplash

Esto último, dice Google, reduce la barrera de entrada para los actores menos sofisticados y además facilita las cosas a hackers que cuentan con el respaldo del propio estado, siendo los atacantes de Irán, China o Corea del Norte los más beneficiados.

Creando herramientas con capacidades de IA

Uno de los mayores problemas de este informe es que revela familias de código que se valen de la IA en su ejecución para modificar de forma dinámica el comportamiento del malware, ayudándole a adaptarse.

Mientras que en 2024 los hackers usaban herramientas de IA para realizar soporte técnico sobre sus propios desarrollos, en 2025 están experimentando con ella para ayudar a que la distribución de este malware sea más efectiva.

En este sentido, Google habla de malware experimental que usa Gemini, también de Google, para automodificarse y evitar ser detectado mediante "técnicas de ofuscación dinámica". Es el caso de PROMPTFLUX.

hacker

hacker

PROMPTFLUX, expone Google, pertenece a una familia de software que "se encuentra actualmente en fase de desarrollo o pruebas", y que integra "un mecanismo para limitar las llamadas a la API de Gemini en malware".

La clave está en su módulo 'Thinking Robot', que consulta periódicamente a Gemini y obtiene código nuevo para evitar antivirus. Esta función garantiza que el malware siempre esté usando su versión estable más reciente, lo que ayuda a que sea más resistente a parches y soluciones.

"Identificamos múltiples variantes de PROMPTFLUX mediante regeneración de código impulsada por LLM, incluyendo una en la que la función 'Thinking Robot' era sustituida por una nueva función llamada Thinging", explica el GTIG.

Thinging usa una solicitud concreta para instruir a la API de Gemini a que reescriba el código fuente completo del malware para evadir la detección. La solicitud dirige al LLM para que actúe como un 'ofuscador experto en VBScript".

Hacker

Hacker

Cabe aclarar que PROMPTFLUX está en unas fases muy tempranas de investigación y desarrollo, pero sirve como un "indicador temprano y significativo" de la forma en la que los atacantes podrían aprovechar la IA para potenciar sus ataques a futuro.

De hecho, PROMPTFLUX no tiene capacidad para comprometer redes o dispositivos. "Nuestro análisis indica que esta actividad se encuentra en fase de desarrollo o pruebas, y no en fase de uso real", apostilla Google.

También descubrieron un programa de minería de datos que en este caso fue usado por el gobierno ruso contra Ucrania. El sistema, apodado PROMPTSTEAL, consulta a un LLM (Qwen2.5-Coder-32B-Instruct) para generar comandos que se ejecutan mediante la API de Hugging Face.

PROMPTSTEAL usa los LLM para generar comandos que el propio malware ejecuta, en lugar de codificarlos directamente en el propio malware. Así, PROMPTSTEAL se hace pasar por un programa para generar imágenes con IA mientras la API de HF genera comandos que se ejecutan en segundo plano.

hacker

hacker

Aquí entra en juego la ingeniería social para evitar los sistemas de seguridad de la IA. "Observamos a algunos individuos que se hacían pasar por participantes en una competición de 'captura la bandera' dirigida a investigadores de ciberseguridad'", denuncia Google.

Un ejemplo de esto lo vimos en China, donde un hacker habría usado Gemini para que este identificara vulnerabilidades en un sistema comprometido. Para conseguir que el chatbot actuase, se hizo pasar por un participante en un ejercicio de captura a la bandera.

Esta es una competición típica en entornos de ciberseguridad, pensada para que los estudiantes puedan mejorar sus técnicas y habilidades a la hora de descubrir agujeros de ciberseguridad. Gemini le proporcionó la información que necesitaba.

Para mitigar este agujero de seguridad, Google ha reforzado tanto a Gemini como tal como sus clasificadores para que la IA reniegue de ofrecer esta asistencia en esta clase de ataques en un futuro cercano.

hacker

hacker

Toda esta situación está poniendo de manifiesto un interés tácito por parte de la comunidad hacker por esta clase de herramientas basadas en IA, diseñadas para que estos ataques y actividades ilegales se puedan completar más fácilmente.

Según Google, se han ofertado herramientas para generar imágenes o deepfakes que creen contenido señuelo para operaciones de phishing y apps para generar malware (o para mejorar el ya existente).

También se ofertan aplicaciones para resumir y explicar conceptos sobre ciberseguridad, generar código y proporcionar investigaciones disponibles sobre vulnerabilidades preexistentes, agrega el GTIG.

Uno de los mayores ejemplos que pone Google sobre la influencia de esta tecnología en los ataques hacker refiere a un grupo de atacantes de Corea del Norte, dedicado al robo de criptomonedas con ingeniería social.

Representación visual de un hacker.

Representación visual de un hacker. Europa Press Omicrono

El grupo, apodado MASAN, habría usado Gemini para "investigar conceptos de criptomonedas y realizar investigaciones y reconocimiento relacionados con la ubicación de los datos de las apps de billeteras de criptomonedas de los usuarios".

MASAN usó el asistente para generar material señuelo y otros mensajes con fines maliciosos, incluyendo la generación de excusas laborales o solicitudes para reprogramar reuniones, entre otras cuestiones similares.

No faltan otros escenarios de uso indebido de Gemini, que pasan por generar vídeos e imágenes deepfake que suplantan la identidad de personalidades del sector de las criptomonedas o incitar a objetivos a descargar software malicioso.