Antes de que llegase la edición post-fotográfica, una imagen valía más que mil palabras; luego, se popularizaron los programas y herramientas para falsear imágenes de forma relativamente sencilla. Los vídeos pasaron a ocupar el sitio de la imagen. Pero ahora, durante el último año, se ha estado popularizando las herramientas provistas de Inteligencia Artificial con el que tú mismo puedes grabar un vídeo y sustituir la cara de la persona que sale en él por la tuya, o simular incluso que una persona hable.

Es lo que le ha ocurrido en varias ocasiones a Obama, por ejemplo. Al ex-presidente de los Estados Unidos le han hecho de todo: desde crear un vídeo falso con su cara hasta recrear un vídeo totalmente falso donde insulta al actual presidente de EEUU Donald Trump. Y ambos vídeos parecen totalmente reales, de hecho. Estamos a punto de entrar en una era en la que el vídeo, la fuente de información más fiable (pues lo vemos con nuestros propios ojos), va a dejar de serlo.

Y no es solo esto, sino que también se pueden generar voces perfectamente humanas. De hecho, esta Inteligencia Artificial, que es de Google, ha pasado el Test de Turing, una prueba que consiste en engañar a una persona, y que piense que esté hablando con otro humano en vez de con un robot.

Y no queda aquí la cosa, pues esta Inteligencia Artificial podría imitar tu voz y hacer llamadas por ti. Es algo tan peliagudo que Google, después de la presentación, tuvo que comprometerse a que este robot se identificará como tal a la hora de hablar con un humano, porque literalmente es imposible de pensar por su voz que se trata de una máquina. Esto, junto con otra IA con capacidad para crear vídeos con tu cara, puede ser muy peligroso. Imagina ahora que lo hacen con un presidente de gobierno de un país declarando la guerra a otro.

Detectar un vídeo falso, ¿es posible?

Untitled-min

Tras ver esto, la credibilidad de los vídeos debería descender en picado. Y no es algo difícil de hacer, sino que nosotros mismos podemos hacerlo descargando las herramientas necesarias. Porque, además, ni siquiera son de pago: FakeApp es una de las más conocidas y distribuidas. Estos vídeos son conocidos como DeepFake (de la unión de términos deep learning, referente a Inteligencia Artificial y fake, falso en inglés), un nuevo término que tendrás que añadir a tu lista de vocablos tecnológicos.

La Inteligencia Artificial ya es capaz de generar vídeos falsos completamente reales

Ahora bien, ¿hay alguna forma de descubrir cuándo un vídeo es falso? Con las imágenes, al menos, sí que hay métodos para ello, ¿qué pasa con los vídeos? Lo cierto es que a medias: investigadores de la Universidad Técnica de Múnich (Alemania) han logrado hacerlo, pero también han logrado hacer que los vídeos generados por una Inteligencia Artificial sean aún más reales.

Así que la respuesta es no, pues incluso aunque el paper haya sido publicado, FaceForensics, la herramienta que vemos en el vídeo superior, el software que presume detectar vídeos falsos, no lo es. Es decir, que existe pero no es pública. Pero, como también puede ser usada para perfeccionar la técnica de falsear vídeos, se convierte al mismo tiempo en su propio enemigo. No queda otra que seguir creyéndonos los vídeos hasta que la situación sea insostenible. Entonces, ¿en qué creeremos?