En una era en la que España ya ha visto incluso anuncios hechos con IA, los usuarios temen las consecuencias de los vídeos hechos con inteligencia artificial. Un ejemplo de este temor está en este adorable vídeo de un canguro que ha engañado a más de un millón de personas.
Estamos hablando de este vídeo de la cuenta Infinite Unreality, hecho con inteligencia artificial y cuya descripción que reza así: "no se admiten canguros". Lejos de haber sorprendido a los usuarios por su realismo, ha hecho creer a muchos que era un vídeo real.
Y es que este vídeo fue compartido por otras cuentas en redes como TikTok o X (antes Twitter) y tras acumular varios millones de visitas, las publicaciones se debatían sobre la naturaleza del propio vídeo, convenciendo a muchísimos de ellos.
Un vídeo hecho con IA engaña a millones
El vídeo no tiene misterio alguno. Dos personas discuten en un idioma ininteligible mientras un canguro sujeta una tarjeta de embarque. El tema del vídeo intenta hacer creer al usuario que el canguro no ha sido admitido a bordo del avión.
Un metraje aparentemente cómico que fue usado por otras cuentas, como Drama Alert, para ganar tracción en redes sociales. La publicación de X acumuló, según expone Peta Pixel, nada menos que 74 millones de visitas.
Esta publicación se llenó de internautas lamentándose por el canguro y pidiendo a la supuesta aerolínea detrás del vuelo que lo admitiese. Lógicamente, otros muchos usuarios se dieron rápidamente cuenta de que el vídeo era falso; era un deepfake.
Tal fue la tracción que logró el vídeo que X se vio obligada a primero marcar el vídeo con una Nota de la Comunidad para etiquetarlo como un deepfake y luego a borrar la publicación. Solo la publicación de Instagram acumula más de 13.000 comentarios.
¿Y cómo sabemos que es falso? Independientemente de la idea absurda de un canguro subiendo a un vuelo, hay multitud de detalles que 'delatan' al deepfake, como el símbolo de Infinity Unreality detrás de una de las interlocutoras.
Otros detalles incluyen el texto ilegible del billete, la mochila del canguro y sobre todo el falso lenguaje de las dos interlocutoras, que tampoco son reales. Uno de estos usuarios sin ir más lejos admitió haberse sorprendido por el vídeo, creyendo que era real.
Si bien la idea de que un inofensivo vídeo confunda a muchos usuarios no es explícitamente mala, siembra un precedente algo siniestro: el cómo los deepfakes y su apartado ultrarrealista puede llegar a engañar incluso a una audiencia masiva como es Internet.
Tal y como llevan advirtiendo los expertos en IA durante años, la sofisticación de las herramientas de generación de vídeo por inteligencia artificial nos podría llevar a un futuro distópico en el que no sepamos diferenciar qué es real y qué no.