Pau Garcia Milá en el pódcast WORLDCA$T.

Pau Garcia Milá en el pódcast WORLDCA$T. YouTube Omicrono

Software

Pau, experto en inteligencia artificial, alerta: "Bastan 9 segundos para que clonen tu voz y te arruinen la vida"

El experto Pau Garcia-Milà alerta en un pódcast sobre el auge de los "hackeos emocionales" y las estafas telefónicas indetectables generadas con IA.

Más información: Así es como los 'hackers' están utilizando la inteligencia artificial para estafarte sin que te enteres: "Nadie está a salvo"

N.C.
Publicada

Hace apenas cuatro años, resucitar la voz de Lola Flores para un célebre anuncio televisivo requirió casi un año de trabajo de postproducción y 800 horas de grabación original. Hoy, la inteligencia artificial (IA) ha pulverizado esa barrera técnica.

Según alerta en el pódcast 'WORLDCA$T' el investigador y experto en los riesgos de la IA, Pau Garcia-Milà, en la actualidad bastan tan solo 9 segundos de audio —extraídos de un vídeo en redes sociales o de una breve llamada telefónica— para generar un clon vocal idéntico y cien por cien funcional.

Estas voces robadas carecen de ética. Pueden ser programadas instantáneamente para proferir insultos, confesar falsos delitos o solicitar dinero sin que el oyente perciba ninguna anomalía. Como advierte el especialista: "Es tan barato delinquir con la IA hoy", que la confianza auditiva ha dejado de ser una garantía.

Aunque el verdadero peligro de esta tecnología reside en cómo facilita el llamado "hackeo emocional". Las estafas tradicionales a menudo fracasan porque desconfiamos instintivamente de los desconocidos. "Pero bajamos las defensas cuando es alguien que nos llama de amigo, familia o la persona de tu banco", señala el experto.

Los delincuentes ya están cruzando masivamente información pública de redes sociales con IA para ejecutar ataques a medida. El modus operandi es devastador: si un joven sube una foto aterrizando en un país extranjero, los estafadores clonan su voz y llaman a sus padres.

Fingen que se han quedado sin tarjetas en el aeropuerto y suplican un envío de dinero urgente mediante Bizum. El pánico y el reconocimiento inconfundible de la voz del hijo hacen el resto.

El experto también advierte sobre el 'SIM swapping'. Este cibercrimen ya opera a escala industrial. Por unos 10.000 dólares, los criminales compran en el mercado negro acceso a bases de datos con decenas de miles de voces clonadas, que cruzan con listados de DNI filtrados para automatizar millones de llamadas fraudulentas a nivel global.

Pau Garcia Milá en el pódcast WORLDCA$T.

Pau Garcia Milá en el pódcast WORLDCA$T. YouTube Omicrono

Además de estafar a particulares, la IA permite a los delincuentes suplantarte por completo mediante el secuestro de tarjetas SIM. Utilizando tu voz, un atacante puede llamar a tu operadora, superar los sistemas de validación biométrica y solicitar un duplicado de tu línea. A partir de ahí, tienen acceso a tus SMS de verificación bancaria y pueden arruinarte la vida tomando el control de tu identidad digital, sin que tu teléfono móvil deje de funcionar inicialmente.

Para ilustrar lo expuestos que estamos en el mundo real, Garcia-Milà relató un escalofriante experimento en cuatro colegios de Barcelona. Su equipo llamó a las recepciones usando las voces clonadas de varios padres, exigiendo que bajaran a los niños de inmediato por una falsa urgencia. Sin dudarlo al reconocer la voz familiar, "los cuatro colegios bajaron a los menores a recepción una hora antes de la salida".

La amenaza socava hasta el sistema judicial. Pruebas realizadas con peritos y fiscales han demostrado que ya es científicamente imposible determinar si un audio presentado como prueba en un juicio es genuino o generado por IA, dejando a los tribunales en una situación de ceguera absoluta ante pruebas falsas.

Ante un escenario donde "ya no hay forma de saber cuándo algo lo ha hecho la IA o un humano", el experto propone una medida de contención básica y analógica: establecer "palabras de seguridad" con nuestro círculo cercano. Un código secreto acordado de antemano para verificar que quien llama pidiendo ayuda urgente es realmente quien dice ser.

La advertencia final de Garcia-Milà no deja lugar a la complacencia de los usuarios: "La sofisticación de estafas y de cosas que hemos visto hasta ahora no tiene nada que ver con lo que veremos en los próximos 2 años".