Un hacker.

Un hacker. Getty Images Omicrono

Software

Así es como los 'hackers' están utilizando la inteligencia artificial para estafarte sin que te enteres: "Nadie está a salvo"

Alertan del aumento en España de los ciberataques creados con IA que buscan desde robar datos bancarios y personales hasta generar desinformación.

Más información: El auge de las novias creadas con IA: "Llegará un momento en el que no sabremos si estamos hablando con una persona real"

Publicada

La inteligencia artificial (IA) dejó de ser un experimento hace tiempo para convertirse en una herramienta muy útil capaz de crear textos, imágenes y hasta vídeos realistas, como Sora de OpenAI. Una tecnología al alcance de cualquiera en España, incluyendo los hackers, que ya la usan para estafar sin que las víctimas se enteren.

Como suele ocurrir con toda nueva tecnología, los ciberdelincuentes han sabido sacar partido a la inteligencia artificial para llevar a cabo sus ataques gracias a los modelos generativos de IA, que pueden clonar voces, crear rostros hiperrealistas (deepfakes) o manipular asistentes virtuales.

Zerod, un marketplace de hackers de sombrero blanco —expertos en seguridad informática que utilizan sus conocimientos de hacking para proteger sistemas, redes y datos, en lugar de dañarlos o robarlos—, ha alertado de un auge de estafas impulsadas por inteligencia artificial.

Entre ellas se encuentran el uso masivo de phishing automatizado con IA para robar credenciales y datos financieros del sector hotelero, deepfakes con impacto político y fraudes de identidad sofisticados que aprovechan técnicas como la clonación de voz.

"Los cibercriminales han encontrado en la IA una herramienta extraordinariamente potente. Lo que antes requería equipos especializados, ahora puede hacerlo una sola persona en minutos", comenta Víctor Ronco, CEO de Zerod, a EL ESPAÑOL - Omicrono.

Ataques sofisticados

Los ciberdelincuentes utilizan actualmente la inteligencia artificial de diferentes formas para estafar. "La IA analiza automáticamente información pública de redes sociales y crea mensajes de phishing que parecen legítimos, con detalles reales sobre la víctima", explica Ronco.

Además de esto, el directivo señala que "las tecnologías de clonación de voz son preocupantes", ya que "con apenas unos minutos de audio extraído de YouTube o redes sociales pueden recrear la voz de cualquier persona, como de un CEO para pedir transferencias urgentes".

Representación visual de un hacker.

Representación visual de un hacker. Europa Press Omicrono

Unos ciberataques con IA que "en España están experimentando un crecimiento muy significativo. El Instituto Nacional de Ciberseguridad (INCIBE) gestiona más de 140.000 incidentes de ciberseguridad anualmente y la tendencia es claramente al alza".

Uno de los principales factores del crecimiento de los ciberataques impulsados por inteligencia artificial se debe a que herramientas como ChatGPT están al alcance de cualquiera, según el directivo.

Esto hace que "no necesitas ser un hacker experto para lanzar ataques sofisticados", ya que bastaría con "describir lo que quieres hacer en lenguaje natural y la IA genera el código malicioso por ti".

Por lo tanto, la IA supone una herramienta que mejora la productividad de los ciberdelincuentes, quienes, "con un solo ataque, pueden gestionar simultáneamente miles de intentos de fraude personalizados".

Ronco destaca que existe "un mercado negro donde se venden servicios de IA maliciosa, kits de phishing o deepfakes bajo demanda" y que esta tecnología, al generar contenido único cada vez, evade los filtros de spam tradicionales que detectaban patrones repetitivos.

Tipos de estafas

En la actualidad se han detectado una gran variedad de estafas con IA. La primera de ellas es el phishing hiperpersonalizado, donde "ya no son correos con faltas de ortografía", sino que se reciben mensajes con datos de las víctimas.

Imagen de un hacker.

Imagen de un hacker.

Por ejemplo, "mencionan proyectos específicos en los que trabaja, incluyen referencias a reuniones reales y parecen de compañeros legítimos".

Otro de los ataques tiene en el punto de mira al turismo, donde los hackers se hacen pasar por empleados de agencias o cadenas hoteleras, usando chats y correos generados por IA para robar credenciales y datos bancarios.

"En turismo e inmobiliario vemos anuncios falsos de alquileres con fotos generadas por IA, precios ligeramente por debajo del mercado, y chatbots que gestionan consultas hasta conseguir el pago del depósito. Cuando la víctima llega al destino, descubre que la propiedad no existe", explica Víctor Ronco.

Los deepfakes políticos también forman parte del arsenal de desinformación en campañas electorales. "Son quizás los más peligrosos: vídeos falsos de políticos haciendo declaraciones incendiarias, audio manipulado durante campañas electorales. Cada vez son más difíciles de distinguir del contenido auténtico", indica el directivo.

Simulación de un hackeo.

Simulación de un hackeo. Europa Press Omicrono

Otra gran amenaza es el fraude de identidad mediante clonación de voz, con la que a los ciberdelincuentes les basta con unos segundos de audio para recrear la voz de un directivo, un proveedor o incluso un familiar.

Los hackers, por ejemplo, "clonan la voz de un hijo y llaman diciendo que han tenido un accidente y necesitan dinero inmediatamente. La urgencia hace que muchas personas transfieran sin pensar".

Las estafas románticas, que son muy habituales, también han evolucionado y "están completamente automatizadas. Bots mantienen simultáneamente docenas de relaciones online, generan fotos falsas pero realistas, y construyen historias elaboradas durante semanas antes de solicitar dinero".

Unos ataques que buscan desde robar datos de tarjetas de crédito hasta manipular, desinformar, robo financiero directo, espionaje industrial y uso de credenciales robadas como punto de entrada para ataques de ransomware. "La IA amplifica dramáticamente el alcance de objetivos criminales que ya existían", asegura Ronco.

"Nadie está a salvo"

Los ciberataques con inteligencia artificial no hacen excepciones. "Nadie está a salvo", aunque el directivo apunta que "las pymes sin departamentos de seguridad robustos son objetivos prioritarios", además de "los sectores financiero, sanitario y tecnológico", ya que manejan información valiosa.

"Cualquier persona o empresa con presencia online puede ser perfilada y atacada. La IA ha democratizado también el acceso a víctimas", indica Víctor Ronco.

Imagen de archivo de un hacker encapuchado.

Imagen de archivo de un hacker encapuchado.

Los usuarios pueden realizar una serie de acciones para detectar y prevenir este tipo de estafas. Lo primero que deben hacer es "implementar verificación multicapa", es decir, si reciben una solicitud urgente de dinero, verificarlo por un canal alternativo y oficial, ya sea de una empresa o de una persona conocida.

"Nunca hay que responder directamente al mensaje sospechoso", alerta el directivo, quien también recomienda establecer palabras clave secretas familiares para verificar emergencias reales y verificar siempre las direcciones web cuidadosamente.

En el caso de los alquileres independientes, se recomienda buscar reseñas independientes, ya que "si tiene un precio demasiado bueno, probablemente sea falso".

También es fundamental realizar acciones ya conocidas, como contar con autenticación de dos factores en las cuentas, no compartir información personal excesiva en redes sociales o renovar regularmente las contraseñas.

Un hacker ataca a una web.

Un hacker ataca a una web. EE Sevilla

Mientras que si se recibe una comunicación sospechosa, se recomienda buscar señales como "una urgencia excesiva por hacer algún tipo de acción, diseñada para que la víctima no piense" y, en vídeos, "buscar movimientos faciales ligeramente antinaturales".

La inteligencia artificial también se puede usar para defenderse de este tipo de ciberataques, usándola como una herramienta para aumentar la productividad y eficiencia de la ciberseguridad defensiva.

"Si los criminales usan IA para atacar, nosotros debemos usar IA para defendernos. Es un juego de equilibrio tecnológico. Es un juego de equilibrio tecnológico", apunta Ronco, quien destaca que en Zerod han desarrollado un hacker autónomo con IA "con esta filosofía".

Una herramienta que puede identificar vulnerabilidades de forma continua y automatizada para anticiparse a los criminales. "La realidad es que estamos en una carrera armamentística tecnológica. No se trata de si vas a ser atacado, sino de cuándo, y la pregunta es si estarás preparado cuando ocurra", concluye el directivo.