Los 'deepfake' son vídeos falsos o imágenes creadas por ordenador, concretamente, usando Inteligencia Artificial para cambiar elementos sin que se note. El ejemplo más básico es cambiar la cara de una persona por la de otra.

Noticias relacionadas

Es fácil ver porqué eso tiene el potencial de convertirse en un serio problema, especialmente si se usa con ánimo de lucro o con intereses políticos. Aunque es cierto que también tienen un gran potencial para crear nuevo tipo de contenido como por ejemplo, con el anuncio de Cruzcampo con Lola Flores.

Los expertos alertaron desde el principio del peligro que podía suponer esta tecnología, y ya estamos viendo los primeros casos en los que ha sido usada con propósitos maliciosos. El último llega de Pennsylvania, Estados Unidos, donde una mujer ha sido arrestada por crear ‘deepfakes’, y no hablamos de los graciosos.

‘Deepfakes’ maliciosos

A Raffaela Spone se le acusa de crear vídeos e imágenes falsos que mostraban a varios miembros del equipo de animadoras local fumando, bebiendo alcohol e incluso desnudas. Spone presentó estas imágenes al entrenador, con la intención de que las echase del equipo; todo formaba parte de una estrategia para ayudar a su hija a obtener uno de esos puestos, aunque ella no tenía conocimiento de esto, según la policía.

Muchos 'deepfake' se crean en clave de humor, pero también hay usos maliciosos

Para crear ese contenido falso, Spone usó aprendizaje automático, una técnica que permite que una Inteligencia Artificial ‘aprenda’ por sí sola y sin necesidad de ser programada específicamente para una tarea. C

on los ‘deepfakes’, la tarea en cuestión consiste en traspasar características de una imagen a otra, como pueden ser las expresiones de la cara o sus facciones. La madre habría insertado las caras de las rivales de su hija en vídeos de situaciones embarazosas, o incluso ilegales. 

IA para acosar

El caso de las animadoras es uno de los primeros usos que se conocen de ‘deepfakes’ usados para acosar y para sacar provecho propio. La policía no ha confirmado si el entrenador sospechó de los vídeos falsos, o si tomó alguna decisión sobre el futuro de las animadoras basándose en estos.

Sí que se sabe que Spone fue identificada como la autora después de una investigación sobre unos mensajes de texto amenazantes que las animadoras recibieron a través de un número anónimo. Los investigadores descubrieron que los números estaban relacionados con una compañía que usa ‘deepfakes’ para publicidad y marketing, aunque no está claro si la mujer les contrató o creó los vídeos por sí misma.

Para crear ‘deepfakes’ no son necesarios grandes conocimientos de Inteligencia Artificial. En los últimos años esta tecnología se ha vuelto más accesible que nunca, y existen programas como FakeApp que facilitan enormemente la creación de ‘deepfakes’.

Inicialmente, los internautas usaron esta app para crear porno falso protagonizado por estrellas de Hollywood, pero pronto se extendieron a varias plataformas, en muchos casos para crear contenido dañino; en Telegram, los bots que desnudan a mujeres se han vuelto muy populares.

También te puede interesar...