deepfakes buscemi lawrence 1

deepfakes buscemi lawrence 1

Software

Esta mezcla de Steve Buscemi en el cuerpo de Jennifer Lawrence usando Inteligencia Artificial es inquietante

Un vídeo de deepfakes del actor Steve Buscemi en el cuerpo de la actriz Jennifer Lawrence revela el nivel que ha alcanzado la Inteligencia Artificial.

Noticias relacionadas

¿Podemos fiarnos de nuestros propios ojos? Las nuevas tecnologías pueden hacernos desconfiar hasta de lo más evidente; gracias a nuevos avances en Inteligencia Artificial capaces de engañar a cualquiera. El fenómeno de los “deepfakes” ha nacido gracias a estos avances, y ya se está convirtiendo en un serio problema.

Nacidos en redes sociales como reddit hace ya más de un año, los deepfakes son vídeos e imágenes modificadas con Inteligencia Artificial; en concreto, se especializan en cambiar detalles sin que nos demos cuenta, como las caras de las personas que aparecen en el vídeo. Estamos en Internet, así que los primeros usuarios se centraron en crear vídeos porno con sus actrices y actores favoritos; pero con el paso de los meses, se ha revelado el auténtico potencial de esta tecnología.

Uno de los deepfakes más chocantes

Los deepfakes usan aprendizaje automático para analizar el rostro de una persona usando vídeos de diferentes procedencias; entonces son capaces de aplicar las características de la cara a un vídeo cualquiera, cambiando detalles como el movimiento de los ojos, la apertura de la boca o el movimiento de los músculos faciales.

El resultado es sorprendente. En muchos casos, no parece nada especial, y ese es el mejor elogio que le podemos dar; es algo natural, como si realmente la persona del vídeo tuviese esa cara. El periodista Mikael Thalen ha demostrado esto con un vídeo que ha conseguido “del agujero negro de los últimos deepfakes”, como lo define.

El vídeo muestra a la actriz Jennifer Lawrence con el cuerpo del actor Steve Buscemi; es una unión que muchos podrían considerar infernal, y que se hace realidad gracias a la Inteligencia Artificial. A simple vista, es muy difícil darse cuenta de que es un vídeo falso; sólo hay determinados ángulos y detalles que nos indican que lo que estamos viendo no es real.

Claro, que eso abre la puerta a que esta tecnología sea usada para crear vídeos incriminatorios falsos. Sin embargo, el propio Mikael Thalen explica porqué este puede ser un miedo infundado; básicamente se reduce a que, si quieres ser engañado, no hay nada que te lo impedirá. Ya existen incontables teorías conspiratorias basadas en pruebas muy dudosas, y hay mucha gente que se las cree a pie juntillas; probablemente estos vídeos generen más desinformación, pero la gente sólo cree lo que quiere creer.