Imagen generada por inteligencia artificial de dos rostros similares.

Imagen generada por inteligencia artificial de dos rostros similares. Manuel Fernández | ChatGPT Omicrono

Software

YouTube pone coto a los 'deepfakes': crea un sistema para detectar parecidos de creadores en vídeos falsos con IA

La plataforma quiere acabar con los metrajes que buscan usurpar los rostros de personalidades famosas, que usualmente degeneran en estafas.

Más información: La hija de Robin Williams, contra los montajes de IA de su padre "estáis haciendo perritos calientes con vidas humanas"

Publicada

Con la proliferación de la inteligencia artificial generativa en España, los llamados deepfakes (vídeos falsos hechos con IA) han explotado. Tanto, que ya hay países y plataformas que están intentando ponerles coto.

Es el caso de YouTube, que a la vista de la problemática ha anunciado un sistema de detección por IA que permitirá a creadores encontrar y denunciar vídeos deepfakes que usen su imagen sin permiso.

Y es que no son pocos los vídeos estafa que se basan en vídeos generados por inteligencia artificial que usurpan la identidad de un creador para intentar atraer a la mayor cantidad de personas posible.

YouTube quiere detectar deepfakes

La novedad, apodada como función de detección de parecidos ya se encuentra disponible para creadores, teniendo incluso su propia página de soporte. El objetivo es encontrar contenido basado en nuestra imagen y denunciarlo.

En palabras de YouTube, el sistema nos ayudará "a encontrar contenido en el que pueda aparecer tu cara o generada por IA, y te permite revisarlo para decidir qué medidas tomar al respecto".

Ejemplo de Deepfake.

Ejemplo de Deepfake.

El sistema se centra, a diferencia de lo que ocurre con Content ID, en buscar la apariencia o voz de una persona, en lugar del contenido de audio y de vídeo protegido por copyright.

Cuando un usuario suba un vídeo a YouTube, el sistema revisará las nuevas subidas que contengan imágenes de otras personas, con sistemas automatizados. Eso sí, YouTube advierte que el método tendrá limitaciones.

Según YouTube, solo se podrá identificar la apariencia o voz de los creadores aptos que den su consentimiento para usar la herramienta. "No se puede detectar a otras personas que aparezcan en los vídeos subidos (ni se ha creado para ese fin).

Esta es una novedad en fase experimental, que de momento se desplegará en beta limitada para unos pocos creadores. Así, la misma YouTube admite que se podrían dar fallos, con falsos positivos sobre todo.

Lola Flores, en el anuncio de Cruzcampo de estilo deepfake.

Lola Flores, en el anuncio de Cruzcampo de estilo deepfake. Cruzcampo Omicrono

Es posible que este sistema informe de clips de los propios vídeos de YouTube del creador, o que se detecten vídeos en los que aparezca la cara real del usuario, y no los que tengan versiones alteradas.

La limitación también se aplica a la propia disponibilidad de la herramienta, que solo estará accesible en una serie de países concretos. YouTube espera poder extender esta novedad a más lugares del mundo.

Esta es la última medida anti-deepfakes en un contexto social cada vez más saturado por el contenido generado por inteligencia artificial. Herramientas como Veo 3.1 o Sora 2 han llevado a auténticas oleadas de contenido calificado como slop.