La Inteligencia Artificial está llegando a ciertos límites que hacen peligrar la información en Internet. De por sí, si no nos basamos en fuentes contrastadas, la desinformación puede darnos una visión sesgada de la realidad. Y esto se agrava con los llamados deepfakes, emulaciones de personas hablando gracias a la IA. Ahora hemos dado un paso hacia adelante, ya que han desarrollado una IA capaz de cambiar lo que dice una persona en un vídeo con un simple texto.

La IA que puede cambiar lo que dice una persona en vídeo

Esta última tecnología deepfake es impresionante a la par que preocupante. Ya vimos ejemplos increíbles (y perturbadores) como el de Dalí o el de Steve Buscemi, capaces de hacerse pasar por personas reales sin demasiados problemas. Ahora, el avance consiste en que esta IA es capaz de cambiar las palabras que salen de nuestra boca cambiando un par de palabras. El resultado da el pego hasta tal punto que, si pusiéramos un fragmento de vídeo de la IA sin el contexto, nos la creeríamos inmediatamente.

Este trabajo, realizado por científicos de la Universidad de Stanford, el Instituto Max Planck de Informática, la Universidad de Princeton y Adobe Research nos enseña que podemos editar lo que dicen las personas con tanta facilidad como la que supone cambiar un texto. Crear falsificaciones de este tipo es cada vez más fácil, y así lo demuestra el vídeo que se posa sobre estas líneas. Basta con cambiar un texto para que el vídeo pueda engañar a alguien.

IA palabras 1

Este software no está disponible para el consumo público y está en una fase de investigación temprana. Claramente este software acabará en manos de otros servicios tarde o temprano, y vista la eficacia de la IA simplemente en su fase de investigación, nos da a entender que la desinformación podría ser enorme. Para esta investigación se usó el software de Adobe VoCo, capaz de editar grabaciones de voz como si fuera una imagen.

Estos vídeos falsos se han hecho combinando varias técnicas. En el vídeo original se aislan los fonemas que dice el sujeto (sonidos como “Oo” o “fuh”) y los relacionan con los visemas existentes (las expresiones faciales asociadas a esos fonemas). Se crea un modelo 3D de la mitad de la cara inferior que emula a la de la persona original.

IA palabras 3

Cuando alguien edita una transcripción de texto del video, el software combina todos estos datos recopilados (fonemas, visemas y modelo de rostro en 3D) para construir nuevas imágenes que coincidan con el texto entrante. Luego se pega en el video original para crear el vídeo falso.

En plena investigación, se mostraron estos vídeos a unos 138 voluntarios. El 60 por ciento de los voluntarios pensó que los vídeos editados eran reales. El 80 por ciento del mismo grupo de voluntarios, por otra parte, pensó que el vídeo original sin editar era legítimo. Por lo tanto, de extenderse dicha tecnología a diversos y en un caso en el que mejorara todavía más, podríamos enfrentarnos a una oleada importante de deepfakes.

No obstante, esta tecnología no es perfecta. Si nos fijamos bien en el vídeo, veremos que la parte baja de la boca no es totalmente real, por lo que aún le queda trecho a esta IA. Además, esta IA solo funciona con vídeos de gente de cabeza para arriba hablando directamente a cámara. Incluso con esas, el software necesita unos 40 minutos de datos nada más empezar para poder funcionar. También se nota en la calidad del audio grabado, que cambia en la frase editada.

Además, los investigadores también señalan que detalles como el estado de ánimo o el tono de voz no se pueden editar. Gestos como agitar las manos al lado de la cara anula por completo la IA, haciendo que deje de funcionar. Sin embargo, hablamos de limitaciones propias de una investigación temprana. Nos pone en sobreaviso de la llegada de un software suficientemente avanzado capaz de cambiar lo que dice una persona en un vídeo sin demasiados problemas. Tendremos que tener cuidado; los efectos de este escenario, al menos en lo que al terreno de la información se refiere, podrían ser devastadores en el peor de los casos.

Noticias relacionadas