La sede de Europol en La Haya

La sede de Europol en La Haya Reuters

Europa

Fraude, suplantación y desinformación: Europol alerta sobre los usos delictivos de ChatGPT

La Oficina Europea de Policía pide a las fuerzas de seguridad que se preparen para combatir la utilización criminal de los modelos de lenguaje de inteligencia artificial.

28 marzo, 2023 02:45
Bruselas

"El ChatGPT ya es capaz de facilitar un número significativo de actividades delictivas, que van desde ayudar a criminales a permanecer en el anonimato a delitos específicios, incluidos el terrorismo y la explotación sexual infantil. Si bien algunos de sus resultados aún son bastante básicos, las próximas iteraciones de este y otros modelos sólo van a mejorar lo que es posible".

Este es el distópico escenario con el que la Oficina Europea de Policía (Europol) ha lanzado la voz de alarma sobre los riesgos que plantean los usos delictivos de los modelos de lenguaje de inteligencia artificial. Preocupa en particular el fraude y la suplantación de identidad o la difusión de desinformación a gran escala.

En un informe publicado este lunes, Europol pide a las fuerzas de seguridad de los Estados miembros que se preparen para identificar y combatir estas nuevas formas de ciberdelincuencia. "A medida que la tecnología avance y estén disponibles nuevos modelos, será cada vez más importante que las fuerzas de orden público se mantengan a la vanguardia de esta evolución para anticipar y prevenir los abusos", señala el texto.

[Así puedes conectar WhatsApp con ChatGPT para charlar con la IA de la que todo el mundo habla]

La capacidad de ChatGPT para redactar textos muy realistas a partir de la indicación del usuario "lo convierte en una herramienta extremadamente útil para fines de phishing (o suplantación de identidad)" a gran escala, afirma Europol.

Mientras que anteriormente muchas estafas de phishing básicas eran más fáciles de detectar gracias a errores gramaticales y ortográficos evidentes, "ahora es posible hacerse pasar por una organización o individuo de una manera altamente realista incluso con sólo un conocimiento básico del inglés". 

De hecho, el contexto de los correos electrónicos de phishing puede adaptarse con facilidad dependiendo de las necesidades del autor de la amenaza, que van desde oportunidades de inversión fraudulentas a la suplantación del correo electrónico empresarial o del director general de la compañía, todo ello para obtener información crítica o extraer dinero.

"Por lo tanto, el ChatGPT puede ofrecer a los delincuentes nuevas oportunidades, especialment para delitos relacionados con la manipulación social, gracias a su capacidad de responder a mensajes en contexto y adoptar un estilo de escritura específico", prosigue el informe. Se puede dar más verosimilitud a varios tipos de fraude en internet utilizando ChatGPT para generar interacciones falsas en las redes sociales, por ejemplo, para publicitar una oferta de inversión fraudulenta.

Terrorismo y desinformación

La capacidad de los modelos de lenguaje de inteligencia artificial de detectar y reproducir patrones de lenguaje "no solamente facilita el phishing y fraude en internet, sino que también se puede usar para suplantar la forma de hablar de personas o grupos concretos". "Se puede abusar de esta capacidad a gran escala para engañar a las posibles víctimas que depositen su confianza en manos de los delincuentes", avisa Europol. 

ChatGPT se presta además "a posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación". En concreto, se puede utilizar para recopilar más información que facilite las actividades terroristas, como por ejemplo la financiación del terrorismo o el intercambio anónimo de archivos. 

Este modelo de lenguaje de inteligencia artificial constituye un instrumento ideal para propósitos de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo.

"Por ejemplo, ChatGPT se puede utilizar para generar propaganda en internet en nombre de otros actores con el fin de promover o defender ciertos puntos de vista que han sido desacreditados como desinformación o fake news", destaca el estudio.

Finalmente, además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes. "Para un potencial delincuente con pocos conocimientos técnicos, este es un recurso invaluable para producir código malicioso", avisa Europol.