Hace unos meses, miles de personas subieron sus fotos a ChatGPT para transformarse en personajes de Studio Ghibli. Una jugada maestra por parte de OpenAI, que convertía el arte de un director en una commodity sin alma, infinitamente reproducible, para apropiarse de nuestras caras y sumarlas a su inventario digital.

Ahora la historia se repite con Sora 2, el nuevo generador de vídeo de la compañía. Sam Altman ya no necesita Worldcoin para conseguir los datos biométricos de todo el mundo. Su IA generativa viral, junto con su nueva red social Sora, es el truco perfecto para hacerse con ellos sin pedirlos.

Mientras unos celebran el prodigio técnico de una aplicación capaz de generar audiovisuales tan realistas, el mundo asiste a la pérdida de derechos: a nuestra identidad y nuestra propia imagen, a la información, y a los derechos de autor y la propiedad intelectual de ciertos colectivos. Es decir, a la pérdida de nuestras caras, nuestra verdad y nuestras obras.

Nuestra apariencia es ahora una mercancía de y para la IA. Y nuestras creaciones y pensamientos son el alimento gratis de máquinas diseñadas para reemplazar el trabajo de un sinfín de profesionales sin su permiso, sin remuneración y pervirtiendo su estilo para beneficio de otros.

Tu cara, su negocio

“Hace poco vi un video donde me arrestaban por conducir ebrio. Luego me vi quemando una bandera estadounidense. Luego me vi confesar haber comido recortes de uñas de los pies. Nada de eso ocurrió. Pero todo parecía tan real que me hizo dudar”.

Es el relato de la experiencia del columnista de tecnología Geoffrey A. Fowler, de The Washington Post, tras probar la red social Sora. Con solo un breve selfie, sus amigos fueron capaces de generar toda esa variedad de vídeos. Podría haber sido cualquiera, ya que la aplicación permite al público general la opción de generar vídeos de IA con tu imagen.

Un 'deepfake' del columnista de tecnología Geoffrey A. Fowler, de The Washington Post

Un 'deepfake' del columnista de tecnología Geoffrey A. Fowler, de The Washington Post

También se puede restringir esta posibilidad solo a uno mismo, algo que no tiene mucho sentido dada la naturaleza social de la app. De hecho, Fowler señala que el ajuste por defecto es el de compartir, lo que facilita que los usuarios acepten sin querer. Además, las personas no pueden aprobar los vídeos que otros generan con sus caras. Solo reciben una notificación una vez publicados.

El autor cuenta que informó de este problema a OpenAI y la empresa respondió dándole las gracias. “En otras palabras -afirma- sabían que eso era un problema y lo publicaron de todos modos”. “Hacer el producto más seguro lo hace menos viral”, como señala el profesor de la Universidad de California en Berkeley Hany Farid. Menos viral, y también menos rentable como negocio.

Mundo irreal

Esto no es solo un problema de control de la propia identidad, sino también de desinformación. En sus primeras 24 horas, los usuarios de Sora publicaron vídeos de parodias, burlas, acoso y engañosos. The Washington Post mostró cómo saltarse los propios controles de la app para usos no autorizados de la imagen de una persona o para cosas como recrear programas de televisión o las cámaras corporales policiales.

Imágenes realistas de este tipo, vídeos falsos de personas reales, y escenas ficticias muy convincentes de "South Park" y de figuras como John F. Kennedy son solo algunos ejemplos. Cierto es que los vídeos de Sora tienen una marca de agua visible para que la gente sepa que son falsos. Pero igual de cierto es que no cuesta mucho cortar esa parte con un programa de edición de video.

Esto facilita el abuso de la herramienta (y de otras similares) para el fraude, el acoso y el daño reputacional. Sextorsión, ciberdelitos, injurias y desinformación son algunas de las consecuencias. Son riesgos graves, que se añaden a uno más: la pérdida de la noción de verdad, y de la capacidad de distinguir la realidad.

El nivel de realismo de los vídeos generados por Sora -a veces indistinguibles de grabaciones auténticas- erosiona la confianza en las imágenes del mundo real, especialmente dada la facilidad para insertar en esos vídeos rostros reales.

Antes de Sora 2 ya existían herramientas capaces de crear estos llamados deepfakes o falsificaciones hiperrealistas, algunas bastante avanzadas en la generación de contenido falso con la imagen de personas reales. En mis charlas, solía mostrar ejemplos de algunas de ellas, y causaban un efecto “WOW”.

Ahora, “gracias” a Sora 2 -y a otras herramientas como la mejorada Nano Banana de Google- esta posibilidad está al alcance de la mano para todo el mundo. El universo virtual se convierte en ‘deepfakelandia’: un conglomerado digital de falsificaciones que trasciende también al mundo físico.

Robo de talento

Como ya es habitual -aunque no por ello aceptable- el desarrollo de estas herramientas se basa en el aprovechamiento no consentido del trabajo y las obras de innumerables autores vinculados a la creación audiovisual.

Algunos vídeos de Sora 2 que son ya virales demuestran -como señala Victor Tangermann en Futurism- lo poco que OpenAI ha hecho para evitar que su herramienta se utilice para generar material protegido por derechos de autor. Uno de estos vídeos es un clip de Bob Esponja preparando cristales azules en un laboratorio de metanfetamina bajo el mar, al estilo Breaking Bad.

Un vídeo creado con inteligencia artificial. Imagen: X.

Un vídeo creado con inteligencia artificial. Imagen: X.

Pese a las denuncias de creadores, productoras y actores afectados (incluidas demandas por parte de grandes estudios de Hollywood como Disney, Warner Bros o Discovery), y pese a las promesas de las empresas de IA de corregir las injusticias cometidas con sus modelos anteriores, el sistema continúa siendo de opt-out. Es decir, hay que explicitar la voluntad de no formar parte del entrenamiento de la IA.

Esto significa que la exclusión del entrenamiento no se produce de forma preventiva, sino de forma posterior y solo si los titulares de derechos solicitan expresamente ser retirados (un proceso complejo y tardío). Es lo contrario del opt-in: que lo que haya que especificar es que sí se acepta ese uso de sus obras, o como mínimo contar con un mecanismo de consentimiento previo que permita decidir desde el inicio si se entra o no.

“¿En qué mundo está bien decir: "Voy a usar esto a menos que me digas que no lo haga"? Para eso existen los derechos de autor”, denunciaba el artista y pintor cinematográfico Reid Southen en redes sociales. En efecto, esos derechos existen precisamente para garantizar que nadie pueda utilizar una obra sin el consentimiento de su creador.

Del mismo modo, ninguna empresa podría hoy apropiarse del algoritmo de GPT-5 sin permiso ni beneficiarse económicamente de él. Ni Google, ni OpenAI, ni ninguna otra compañía de inteligencia artificial aceptaría jamás que se vulneraran sus derechos de autor o de propiedad intelectual. Entonces, ¿por qué los artistas, escritores y demás profesionales creativos deberían transigir con ello? ¿Es que sus derechos valen menos que los de los desarrolladores o los ingenieros?

La nueva realidad

En este escenario, nos enfrentamos a una nueva realidad. La describe la experta educativa Clara Hawking: “Nos encaminamos sonámbulos hacia una pesadilla. Sora 2 y una oleada de generadores de video han convertido internet en una fábrica de realidades inventadas: celebridades resucitadas, desastres simulados y recreaciones pornográficas de personas que nunca dieron su consentimiento”.

Para las escuelas y las organizaciones juveniles, esto es existencial, asegura Hawking. “Los niños no pueden distinguir lo auténtico de lo fabricado. Profesores, directores y alumnos ya están siendo utilizados como armas en vídeos racistas o sexualmente humillantes de IA”, añade en un post que ya se ha hecho viral.

En efecto, una generación de niños está creciendo sin poder confiar en lo que ve, asistiendo al desmantelamiento de unos derechos que tal vez nunca serán conscientes de haber tenido. Todo a cambio de un divertimento diseñado para que sus creadores ganen dinero enseñando a máquinas a ser nosotros. Y mientras tanto, los oportunistas hacen caja con talleres sobre cómo adaptarnos al robo.

Respuesta regulatoria

Las empresas de IA generativa están desmantelando nuestros derechos a la identidad y a la propia imagen, a la información y a la autoría, pero esta pérdida no es irreversible. El gobierno de Dinamarca ha impulsado una enmienda pionera contra la creación y distribución de deepfakes no consentidos.

La norma extiende la protección de los derechos de autor a los rostros, voces y cuerpos de las personas, lo que convierte nuestros datos biométricos en propiedad. En la práctica, esto significa que la IA debe requerir consentimiento y permiso explícito para generar clones digitales. Las empresas que no lo apliquen, se exponen a la retirada de contenido, multas y demandas.

En Japón también han reaccionado: tras el lanzamiento de Sora 2, el gobierno japonés presentó la semana pasada una solicitud formal a OpenAI para que no realice ninguna acción que pueda constituir una infracción de derechos de autor en relación con el anime y el manga protegidos, que describe como “tesoros irreemplazables de los que podemos estar orgullosos en todo el mundo".

A nivel Europeo, la situación es ambigua. Por una parte, el Código de Buenas Prácticas para sistemas de Inteligencia Artificial de Propósito General (GPAI) de la Comisión Europea, se considera una traición a los derechos de autor. Sin embargo, el Parlamento Europeo propone en un estudio varias medidas encaminadas a proteger a los autores.

En el informe -comisionado por el europarlamentario popular Axel Voss- destacan tres propuestas. La primera es un mecanismo legal de remuneración para aquellos cuyas obras son usadas en el entrenamiento de IA. La segunda: considerar volver a un régimen de “aceptación voluntaria” basado en permisos (opt-in) mediante autorización previa.

La tercera medida es acompañar dicho régimen con un registro de permisos centralizado y legible por máquina (potencialmente gestionado por la Oficina de Propiedad Intelectual de la UE, la EUIPO).

La visión de Voss está clara: “Escritores, músicos y creativos se ven expuestos a un vacío legal irresponsable. Lo que no entiendo es que estemos apoyando a las grandes tecnológicas en lugar de proteger las ideas y el contenido creativo europeo”. No es solo eso. Nos jugamos nuestras caras, nuestra verdad, nuestras obras.