Publicada

Una manifestación pacífica llena de personas protestando contra un partido político, la policía carga contra los manifestantes. Esta imagen sería motivo de numerosas noticias en medios de comunicación y comentarios en redes sociales, pero ¿cómo saber si es real? Los nuevos modelos generadores de IA ponen cada vez más difícil diferenciar entre lo real y lo ficticio.

"Tenemos un gran público acostumbrado a creerse todo lo que ve y por otro lado, una tecnología que nos permite crear imágenes que van a generar ilusión sobre la realidad, es un problema bastante grande”, indica Alejandro Maestre, presidente de la AEICF (Asociación Española de Imagen Científica y Forense) en una entrevista con EL ESPAÑOL-Omicrono.

Google ha lanzado Veo 3 este año y poco tiempo después OpenAI ha respondido con Sora 2, dos nuevos modelos de generación de video y audio. La carrera por tener la mejor herramienta, capaz de crear las escenas más realistas, y conquistar el mercado presenta un riesgo de credibilidad a nivel global.

Vídeo | Sora 2, el generador de vídeos con IA que hace posibles los 'deepfakes' en una nueva red social José Verdugo Edición

Por el momento solo se puede usar en Canadá y Estados Unidos, pero mediante un sistema de invitaciones sin verificación de indentidad que está llegando a otros territorios. Los primeros en tener acceso a Sora 2 no han perdido el tiempo, informa The New York Times que en solo tres días esta nueva versión se ha usado para generar vídeos realistas de fraude electoral, arrestos por inmigración, crímenes y ataques en plena calle; todo falso.

"Que tú puedas ahora mismo crear un avatar de cualquier persona y utilizar ese avatar por todos lados creando cualquier tipo de situación es una locura. El otro día vi algo de Franco y me quedé alucinado, han avanzado muchísimo, el salto que ha pegado esto es increíble", explica a este medio Andrés Mora que se define como Director de orquesta en la agencia Ai Merengue, especializados en crear contenidos con inteligencia artificial.

La red social de la IA

La competencia es férrea y hay opciones para todos los gustos, desde Midjourney, pasando por Runway y ahora Sora 2 y Veo 3. "Sora 2 es muy bueno, lo hemos probado y en la parte de leyes físicas es un poco mejor que Veo 3, pero este sigue dándote resultados un poco más profesionales, sobre todo en la parte de colorimetría y cinematográfico, que en publicidad es más importante", explica Andrés.

El peligro no está solo en la calidad del contenido, en su realismo, también en la simplicidad de la aplicación. Con Sora, OpenAI se ha inspirado en las redes sociales. Solo se requiere una sencilla frase para crear cualquier tipo de metraje protagonizado con gente famosa o de personas anónimas.

Videos cortos en formato vertical como los que se han popularizado en TikTok e Instagram. Para crearlos, los usuarios pueden subir un vídeo propio moviendo la cabeza y diciendo tres números para registrar sus rasgos y voz. El modelo se fija en los detalles de la imagen original, incluso logos en camisetas o cuadros en el fondo de la pared para dar mayor realismo a la escena.

Fruto de esta simplicidad, internet se ha llenado en pocos días de vídeos de Sora con rostros conocidos cuyo realismo sorprende. Desde Michael Jackson o John Lennon haciendo publicidad, hasta políticos y activistas como Martin Luther King jugando con recuerdos históricos.

El mundo de la cultura ya ha empezado a levantar la voz alertando de este peligro. Mr Beast, el youtuber más famoso del mundo ha advertido del impacto que IA generativa puede tener en los “millones de creadores que actualmente crean contenido para ganarse la vida”. Incluso, Zelda Williams, hija del fallecido actor Robin Williams ha pedido que dejen de mandarle vídeos generados con la imagen de su padre.

¿Cómo reconocer el contenido generado por IA?

Reconocer cuando se está frente a un vídeo falso es cada día más difícil, aunque no siempre imposible. "Se nota mucho cuando cambia de una escena a otra, las manos es el gran handicap de la IA, todavía se notan fallitos, explica Andrés. "Hay un vídeo en el que yo siempre las pongo a prueba que es un skater rompiendo su tabla contra el suelo, eso le cuesta horrores".

Cuando la vista no puede discernir la realidad de la ficción, el recurso está en el ADN del contenido, el código. La mayoría de aplicaciones de IA, así como los programas de edición, tienen una serie de marcas internas que determinan que eso se ha hecho con una herramienta, que no se trata de una imagen original.

C2PA (Coalition for Content Provenance and Authenticity) un estándar técnico adoptado por gigantes de la industria como Amazon, Microsoft, Adobe, ARM, OpenAI, Intel, Truepic y Google. Incluso hay cámaras fotográficas que ya generan este protocolo de metadatos internacional para certificar la procedencia de las imágenes. También están surgiendo herramientas como Tu VerifAI, diseñada por Telefónica para la detección de contenido manipulado.

Aplicación de Sora 2 Marta Sanz Omicrono Omicrono

El problema surge en la circulación de estos contenidos en internet. Explica Alejandro Maestre que si se hace una captura de pantalla o se comparte por WhatsApp la información se pierde. La captura de pantalla es un archivo nuevo, no tiene ningún vínculo a nivel informático con el original.

WhatsApp, por su parte, tiene su propio servidor para comprimir las imágenes y hacer que cuando viaje por ahí tengan menos peso, lo que se recibe es otro archivo distinto. Esto también se hace por motivos de seguridad para no compartir datos personales.

OpenAI asegura que ha lanzado esta aplicación después de plantearse fuertes medidas de seguridad. Entre ellas incluyen una marca de agua visible y metadatos C2PA, además de mantener "herramientas internas de búsqueda inversa de imágenes y audio que pueden rastrear los videos hasta Sora con alta precisión, basándose en sistemas exitosos de generación de imágenes ChatGPT y Sora 1."

"Debería haber intención de diferenciar lo que es real de lo que no, pero hay una guerra económica detrás en la que el primero que lanza es el que más hace dinero y les aprieta mucho hacer dinero", indica Andrés Mora. "Si esto es solo con un new baby, imagínate cuando esto funcione se lleven a todas partes en los Air Pods o en las gafas inteligentes, todo el día generando el mal, haciendo imágenes falsas, llegará un momento que se use como arma de control".

Para Maestre la responsabilidad no es solo de las empresas que están lanzando estas herramientas, también de cómo las usan las personas: "el tema es cómo dotamos al gran público de herramientas para que ellos sean capades de determinar lo que es real, con educación contrastando la informacióny con tecnología que permita al usuario comprobar el origen de la imagen".