'La reina, Camilla y Kate Middleton en la peluquería', obra de Alison Jackson

'La reina, Camilla y Kate Middleton en la peluquería', obra de Alison Jackson Alison Jackson Omicrono

Software

Las cinco claves para identificar las fotos falsas que se han hecho con inteligencia artificial

El perfeccionamiento de las herramientas de generación de imágenes con IA está planteando serios desafíos a la hora de saber si son reales o no.

13 abril, 2023 02:43

En la era de Internet una imagen no vale más que mil palabras. Si las fake news circulan libremente a través de WhatsApp y las redes sociales, el peligro más patente radica en que las imágenes y vídeos generados por inteligencia artificial sean cada vez más indistinguibles de los reales. Ya no servirá únicamente ver para creer. Por eso se hacen imprescindibles herramientas para distinguir los elementos creados por software generativo como ChatGPT, DALL-E 2 o Midjourney de los elaborados por abogados, periodistas, ilustradores o fotógrafos, y eso puede tener consecuencias catastróficas.

Mientras expertos de todo el mundo alertan sobre los peligros de la IA, algunos hasta extremos apocalípticos, compañías como Open AI o Stability AI siguen mejorando y depurando sus algoritmos para conseguir resultados sorprendentes. De hecho, resulta casi imposible seguirles el ritmo, ya que cada semana se anuncian nuevos hitos que hasta hace bien poco parecían más propios de la ciencia ficción: el paraíso para quienes quieran manipular a su antojo la realidad con fines políticos, económicos o geoestratégicos.

Las recientes imágenes virales del Papa Francisco luciendo un abrigo acolchado de Balenciaga o de Donald Trump siendo arrestado por la policía no han hecho más que agrandar estas arenas movedizas en las que cualquiera puede verse arrastrado y dar por cierto algo que no lo es

Imagen creada con Midjourney V5

Imagen creada con Midjourney V5 Nick St. Pierre / Twitter Omicrono

"Las herramientas van a mejorar, se van a abaratar y llegará un día en que no se podrá creer nada de lo que se vea en Internet", sostiene Wasim Khaled, director ejecutivo de Blackbird.AI, en declaraciones recogidas por The New York Times. Su empresa se dedica precisamente a luchar contra la desinformación, pero su trabajo es cada vez más difícil, dada la velocidad con la que aparecen nuevas IAs y las ya existentes mejoran sus capacidades. En cualquier caso, hay varios elementos clave a tener en cuenta que pueden ayudar a diferenciar una fotografía real de una generada a través de software generativo.

Título y etiquetas

Parece obvio, pero la manera más sencilla y directa de saber si un texto o imagen han sido generados por inteligencia artificial es que el propio autor del prompt (el conjunto de indicaciones en texto que se suministra a la inteligencia artificial para que genere el texto o imagen deseados) así lo indique a la hora de compartirlo.

[La inteligencia artificial se mete en política: el programa de este partido lo ha redactado una IA]

Así, esta información se encuentra a menudo en el propio título o nombre de archivo de las imágenes, en su texto alternativo o en la entrada de blog o el perfil de la red social en la que se haya compartido. A menudo, los pioneros que están experimentando con esta tecnología incluyen el prompt, algo muy útil para cualquier que quiera aprender a generar sus propias imágenes con IA.

Otras veces es la sección de comentarios donde el autor puede haberlo mencionado, o en las respuestas a la publicación original en el caso de redes como Twitter o Facebook. Cualquier mención a Midjourney, Stable Diffusion o DALL-E, los generadores de arte con IA más populares, puede ser una pista.

El problema surge cuando la imagen es compartida y otros usuarios de la red se apropian de ella o la difunden en sus cuentas sin precisar su procedencia, por lo que seguir el recorrido hasta su origen puede ser casi imposible. De hecho, el motivo original de las imágenes que mostraban la detención de Trump era precisamente denunciar la increíble capacidad de la IA para generar desinformación.

Su autor fue Eliot Higgins, periodista británico y fundador de Bellingcat, una organización de investigación de código abierto, que utilizó Midjourney para generar imágenes sobre la posible detención del ex presidente estadounidense, el juicio, su encarcelamiento, su huida de la cárcel por una alcantarilla y como trabajador en un McDonalds.

Compartió todas estas ¡mágenes en un hilo de Twitter y las marcó como creadas por una inteligencia artificial, pero su viralización llevó a muchos a creer que eran reales. El mismísimo Trump compartió en Truth Social, su propia red social, una imagen suya rezando que también fue creada con Midjourney y tiene un nivel de detalle asombroso

En esta carrera por ver quién se adelanta, si la tecnología para engañar o la que puede servir para detectar el engaño, hay quien apuesta por restringir o etiquetar estas nuevas armas de desinformación masiva. Tras la advertencia de Alemania de bloquear ChatGPT y la prohibición de su uso en Italia, al considerar que no cumple la normativa europea de protección de datos, una de las últimas medidas proviene del Parlamento Europeo.

"En todo lo que sea generado por inteligencias artificiales, ya sean textos -como ChatGPT- o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial", declaró Thierry Breton, comisario de Mercado Interior, a la emisora Franceinfo, para que los usuarios sepan en todo momento su procedencia. De momento, no está claro cómo cristalizará estas intenciones, pero está previsto que la legislación que regule la IA se vote durante el mes de abril y entre en vigor definitivamente en el año 2025. 

Marcas de agua

Desde hace décadas, las imágenes digitales se protegen con marcas de agua, que suelen ser logotipos o textos superpuestos en las fotografías, el equivalente digital a la firma de los pintores. Suelen ser transparentes, para dejar ver la imagen, pero sirven para identificar al fotógrafo o a la empresa propietaria de los derechos, y para garantizar que nadie las utilice sin su permiso o previo pago.

[ChatGPT lo tiene clarísimo: este es el monumento más bonito de toda España]

En el caso de las IAs generativas, algunas han apostado por incluir marcas de agua en sus imágenes para que sean fácilmente identificables. Por ejemplo, DALL-E coloca una marca de agua en cada foto que descargas de su web. Se sitúa en la esquina inferior derecha de la imagen y consiste en cinco pequeños cuadrados de color amarillo, turquesa, verde, rojo y azul. 

La cuestión es que resulta demasiado sencillo descargar la misma imagen sin marca de agua, y hacerlo no va en contra de las políticas o normas de uso de OpenAI. Mientras "no induzcas a error a los demás sobre la naturaleza de la obra", ya sea apropiándote de su autoría o asegurando que es una fotografía real, no hay problema. Existen maneras relativamente fáciles de eliminar la marca de agua, también con herramientas como Photoshop, que dejan en evidencia lo fácil que es sortear esta medida de seguridad.

Imagen creada con Dall-E 2 con la marca de agua en la parte inferior derecha

Imagen creada con Dall-E 2 con la marca de agua en la parte inferior derecha DALL-E 2 Omicrono

Por su parte, otras como Midjourney, con la que se logran resultados más realistas, sobre todo en los rostros humanos, no utiliza marcas de agua y deja que los usuarios decidan si quieren poner a la IA como responsable de sus imágenes. Eso sí, recientemente ha restringido el uso gratuito de la plataforma, precisamente para poner freno a la viralización de contenidos como las fotos hiperrealistas del Papa bebiendo cerveza por Roma o convertido en una estrella del rap. De hecho, la plataforma cerró la cuenta de Eliott Higgins, autor de las imágenes de Trump, sin ofrecer ninguna explicación al respecto.

Lo que demuestra que en este terreno de momento no hay más ley que la de la selva es el hecho de que algunos generadores de imágenes con IA han 'fabricado' imágenes que incluyen versiones distorsionadas de las marcas de agua más habituales, las que utilizan bancos de imágenes como Getty Images, Alamy o Shutterstock. De hecho, Getty denunció en febrero a Stability AI (responsables de Stable Diffusion), de utilizar ilegalmente más de 12 millones de sus fotos para entrenar su software. 

Algunas imágenes creadas con Stable Diffusion tienen la marca de agua de Getty

Algunas imágenes creadas con Stable Diffusion tienen la marca de agua de Getty The Verge

Nvidia, compañía famosa por sus tarjetas gráficas pero también puntera en software de creación de imágenes, ya colabora con Getty para entrenar modelos de inteligencia artificial con unos estándares éticos, para utilizar sus contenidos bajo licencia pagando los derechos de autor a los artistas y fotógrafos originales. La propia Adobe, gigante del software, anunció recientemente su propia IA generativa, Firefly, entrenada utilizando únicamente imágenes con licencia de su propio stock o que ya no estén sujetas a derechos de autor. 

Anomalías en imagen y texto

De momento, la manera más habitual y efectiva de detectar si una imagen ha sido generada por una IA se basa en la pura observación. El perfeccionamiento del software, con la V5 de Midjourney a la cabeza, lo está poniendo cada vez más complicado, pero la mayoría de imágenes generadas con inteligencia artificial comparten algunos marcadores visuales que las señalan claramente.

Los detalles son los que suelen marcar la diferencia y por eso a veces es necesario ampliar la imagen. Uno de los más evidentes tiene que ver con pendientes que faltan o que no coinciden, ya que uno de los principales problemas de la IA a la hora de generar imágenes es la simetría. Por eso también tienen dificultades a la hora de representar los dientes, que pueden aparecer descentrados o borrosos, y los ojos, que a menudo se muestran con distintos tamaños. Otras veces la clave está en las proporciones del cuerpo, que pueden parecer ligeramente distorsionadas, sobre todo en relación con los demás elementos de la imagen.

Imagen generada con Midjourney V4, que tenía dificultades para representar los dedos

Imagen generada con Midjourney V4, que tenía dificultades para representar los dedos Midjourney Omicrono

Complementos como las gafas también pueden dar pistas: a veces se mezclan con la piel de la cara o el pelo, otro de los elementos más difíciles de imitar. En fotos generadas con IA aparecen extraños mechones o zonas en las que el pelo no parece natural. Los fondos borrosos también son un claro indicio de imagen 'no real', así como textos ilegibles o con letras añadidas.

Hasta hace poco, los dedos de las manos parecían uno de los grandes obstáculos para obtener imágenes realistas, ya que aparecían frecuentemente duplicados o deformados. Sin embargo, la última versión de Midjourney ahora es capaz de representar manos realistas, sin errores aparentes.

[Grave amenaza o aliado de los profesores: así revolucionará ChatGPT el sistema educativo]

Otra forma de saber si una imagen ha sido generada por la IA son las expresiones faciales, que pueden ser desmesuradas. "Si pides expresiones, Midjourney tiende a representarlas de forma exagerada, con pliegues de piel muy pronunciados, por ejemplo al sonreír", explica Eliott Higgins en Wired

Herramientas de detección

Como parece difícil que la carrera de la inteligencia artificial se detenga, por más que lo pidan Elon Musk y Steve Wozniak, y sus progresos son cada vez más preocupantes, se hace imprescindible el uso de software de detección de textos e imágenes capaces de identificarlos.

Los generadores de imágenes basados en IA funcionan con redes generativas adversariales (GAN, por sus siglas en inglés) y ya existen detectores de GAN como Huggin Face, pero sus resultados todavía no son lo suficientemente precisos. Microsoft también lanzó en su día una herramienta para detectar deepfakes, pero los avances son tan rápidos que resulta casi imposible mantener el ritmo.

El detector de imágenes realizadas con IA de Huggin Face

El detector de imágenes realizadas con IA de Huggin Face Huggin Face Omicrono

Según cuenta en Scientific American Yong Jae Lee, informático de la Universidad de Wisconsin-Madison, la creación de este tipo de programas funciona como cualquier otra tarea de aprendizaje automático. "Se recopila un conjunto de datos de imágenes reales y otro de imágenes generadas por la IA. Luego puedes entrenar un modelo de aprendizaje automático para distinguir las dos".

Pese a estos esfuerzos, este tipo de sistemas todavía no están suficientemente desarrollados y tienen muchas deficiencias. La mayoría de estos algoritmos se entrenan con imágenes de un generador de IA específico y no son capaces de identificar las falsificaciones producidas por otros. Además, no son programas con interfaces fáciles de usar como DALL-E, por ejemplo, lo que hará muy difícil que el público general se moleste en utilizarlos.

"La batalla entre los sistemas de IA que generan imágenes y los sistemas de IA que detectan las imágenes generadas por IA va a ser una carrera armamentística", afirma en el mismo artículo Wael AbdAlmageed, profesor asociado de investigación en informática de la Universidad del Sur de California. "No veo que ningún bando vaya a ganar pronto". ¿Fake o no fake? Esa es la cuestión.

También te puede interesar: