Publicada

En España la ciberseguridad se enfrenta a un desafío sin precedentes con la irrupción de la inteligencia artificial generativa, una herramienta que, si bien promete revolucionar muchos sectores, también ha abierto una nueva caja de Pandora para los actores maliciosos.

La compañía de ciberseguridad ESET ha lanzado una advertencia sobre una innovadora y peligrosa modalidad de ataque conocida como “malvertising asistido por IA” o, más coloquialmente, “Grokking”.

Esta técnica ha demostrado que los ciberdelincuentes pueden manipular chatbots avanzados, como el integrado en la red social X, y convertirlos en cómplices para la diseminación masiva de enlaces de phishing y malware.

El descubrimiento pone de manifiesto una sofisticación creciente en las tácticas de engaño, donde la confianza del usuario en la tecnología es precisamente la vulnerabilidad que se explota.

Josep Albors, director de investigación y concienciación de ESET España, ha incidido en esto. Según el experto, “la inteligencia artificial se ha convertido en una herramienta para la ingeniería social".

La IA como herramienta para delinquir

Según Albors, "los modelos de lenguaje (LLM) pueden aprovecharse para diseñar campañas de phishing masivas y generar audios o vídeos deepfake capaces de engañar incluso al usuario más precavido."

El problema es que no se queda ahí y, como se ha visto recientemente, en "el caso de Grokking se demuestra que incluso las IAs más avanzadas pueden ser manipuladas para actuar contra los usuarios”.

Imagen representativa de Elon Musk y su herramienta de IA "Grok".

El auge de los modelos de lenguaje (LLM) ha democratizado el acceso a tecnologías que antes estaban reservadas para laboratorios de investigación y grandes corporaciones.

Hoy, cualquier persona con una conexión a internet puede generar textos, imágenes o incluso vídeos de una calidad asombrosa en cuestión de segundos.

Sin embargo, esta facilidad de acceso también ha abaratado y simplificado la creación de campañas de ingeniería social a una escala nunca antes vista.

Los correos de phishing, que antes eran a menudo reconocibles por sus errores gramaticales o su redacción torpe, ahora pueden ser personalizados y perfeccionados por una IA para resultar indistinguibles de una comunicación legítima. Pero la amenaza va mucho más allá de la simple redacción de textos fraudulentos.

Qué es el “Grokking”

El núcleo de esta estrategia reside en burlar los sistemas de seguridad y moderación de contenido de plataformas que tienen cientos de millones de usuarios, como es el caso de X.

Los atacantes comienzan publicando anuncios de vídeo que utilizan contenido de tipo clickbait para atraer la atención de los usuarios.

Ejemplo de Grokking bananahacks El Androide Libre

Estos vídeos, en apariencia inofensivos, son el caballo de Troya. La verdadera trampa se encuentra en un lugar discreto y a menudo pasado por alto: el pequeño campo "from" o "fuente" asociado a la publicación.

En este espacio, los delincuentes incrustan un enlace malicioso acortado o camuflado.

Aquí es donde la inteligencia artificial entra en juego de una manera novedosa y alarmante. Los atacantes, una vez publicado el anuncio, interactúan con el chatbot de la plataforma, conocido como Grok.

Le formulan una pregunta simple y aparentemente inocente, como: "¿Cuál es el origen de este vídeo?" o "¿De dónde procede este contenido?".

Ejemplo de Grikking El Androide Libre

El chatbot, diseñado para ser útil y proporcionar información precisa, analiza la publicación en su totalidad, incluyendo los metadatos ocultos. Al procesar la pregunta, Grok identifica el enlace fraudulento en el campo "from" y, en su respuesta, lo presenta al usuario como la fuente del vídeo.

Al hacerlo, el chatbot, una entidad oficialmente respaldada por la plataforma y percibida como una fuente de información fiable, está validando y difundiendo activamente el enlace malicioso.

De esta forma, se convierte en un amplificador de la estafa, prestando su credibilidad a una operación criminal.

El alcance de la amenaza

La peligrosidad de la técnica "Grokking" radica en su capacidad para convertir un sistema de confianza en un vector de ataque.

La reputación del chatbot se explota para dar un barniz de legitimidad al fraude. Según ESET, las implicaciones son múltiples y graves.

En primer lugar, la escala es masiva; los mensajes promocionados en una red social como X pueden acumular millones de visualizaciones en muy poco tiempo, exponiendo a una audiencia ingente al riesgo. Cada vez que el bot responde, el enlace malicioso se propaga aún más.

En segundo lugar, este método tiene un impacto significativo en el SEO (Search Engine Optimization) y la reputación del dominio malicioso.

Cuando una fuente considerada de alta confianza como Grok enlaza a un sitio, los motores de búsqueda pueden interpretar esto como una señal de autoridad, mejorando el posicionamiento del sitio fraudulento en los resultados de búsqueda.

Esto crea un círculo vicioso: a mayor visibilidad, más víctimas potenciales, y más señales de autoridad para los algoritmos.

Los usuarios, al hacer clic, pueden ser redirigidos a páginas de phishing diseñadas para robar credenciales de acceso (nombres de usuario y contraseñas) o a sitios que inician automáticamente la descarga de software malicioso, como troyanos, ransomware o spyware.

De hecho, ESET ha identificado cientos de cuentas que empleaban este patrón de ataque antes de que la plataforma tomara medidas y las suspendiera, lo que indica que no se trata de un incidente aislado, sino de una campaña coordinada y en expansión.

Además, es crucial entender que este problema no se limita a X o a Grok. Cualquier plataforma que integre un asistente de IA o un modelo de lenguaje para interactuar con contenido generado por usuarios es potencialmente vulnerable a una táctica similar.

Qué hacer ante estos ataques

Ante este panorama la prevención y la concienciación del usuario final son más cruciales que nunca.

Como siempre, lo mejor es adoptar una postura de escepticismo saludable y seguir una serie de buenas prácticas de ciberseguridad para mitigar los riesgos:

  • Desconfía sistemáticamente de los enlaces: Nunca hagas clic en un enlace de manera automática, incluso si parece provenir de una fuente confiable como un chatbot o una cuenta verificada.
  • Mantén una actitud crítica ante las respuestas de la IA: Sé escéptico ante respuestas o sugerencias que parezcan anómalas, fuera de contexto o demasiado buenas para ser verdad.
  • Fortalece tus credenciales con contraseñas robustas: Utiliza contraseñas largas, complejas y, sobre todo, únicas para cada uno de tus servicios online.
  • Activa la autenticación multifactor (MFA): La MFA añade una capa de seguridad fundamental que puede proteger tus cuentas incluso si tu contraseña es robada. Habilita esta opción en todos los servicios que la ofrezcan.
  • Mantén todo tu software actualizado: Las actualizaciones de sistemas operativos, navegadores y aplicaciones a menudo contienen parches para vulnerabilidades de seguridad que han sido descubiertas.

El caso "Grokking" no es solo una anécdota técnica, sino un claro indicador de la dirección que está tomando el cibercrimen.

A medida que la inteligencia artificial se integre más profundamente en nuestras vidas digitales, los ataques que explotan su lógica y la confianza que depositamos en ella se volverán más comunes y sofisticados.

La responsabilidad de la ciberseguridad es ahora compartida: las empresas deben desarrollar sistemas de IA más robustos y seguros, y los usuarios deben aumentar su nivel de alerta y su educación digital.