
App DeepNude.
Adiós a los desnudos con IA: Meta demanda a la aplicación más popular por publicitarse en sus plataformas
Los de Zuckerberg se ponen serios y denuncian no solo a una de las desarrolladoras más importantes, sino el auge de estos servicios.
Más información: El lado oscuro de Lensa, la app que hace retratos de IA con tu cara: desnudos, racismo y otros sesgos
Con el brutal auge de la IA en España, han comenzado a salir todo tipo de aplicaciones y servicios que aprovechan esta tecnología para desnudar a personas sin su consentimiento. Meta, junto a otras firmas como Apple, ha sido la última en arremeter contra estas aplicaciones.
Según adelanta la propia Meta, la firma de Zuckerberg ha tomado acciones legales contra Joy Timeline HK Limited, la desarrolladora detrás de Crush AI, una app 'nudify' que desnuda a personas usando inteligencia artificial.
La empresa no solo denuncia que esta aplicación se ha estado publicitando en las plataformas de Meta, sino que esta desarrolladora y otras tantas habrían intentado eludir los procesos de revisión de anuncios de Meta, para financiarse con la publicidad. Estos anuncios, eso sí, ya han sido borrados.
Adiós a las aplicaciones 'nudify'
Como la propia Meta explica, la IA ha causado un importante auge de las aplicaciones para generar deepfakes pornográficas, que crean imágenes falsas de desnudos o sexualmente explícitas de usuarios, personalidades, influencers, etcétera.
Esta práctica está ampliamente prohibida en las plataformas de Meta, ya que las propias políticas de la compañía establecen que no es posible promover aplicaciones o servicios similares. Crush AI se habría estado publicitando de forma continuada en estas plataformas.

App DeepNude.
"Eliminamos anuncios, páginas de Facebook y cuentas de Instagram que promocionan estos servicios cuando los detectamos y bloqueamos los enlaces a sitios web que alojan para que no se pueda acceder a ellos desde las plataformas Meta".
No solo eso; también restringen en las búsquedas términos como "quitar ropa", "desnudarse", "desnudez" y similares. Las acciones legales que Meta está tomando en contra de Joy Timeline HK Limited son solo de hecho la punta de lanza de las actuaciones contra esta clase de aplicaciones.

La página genera imágenes de mujeres desnudas en base a un algoritmo
Una muestra de ello la da la propia Meta. A partir de ahora, cuando se eliminen cuentas, contenidos o anuncios relacionados con apps de desnudos por IA, se compartirán detalles con otras empresas tecnológicas a través del programa Lantern de Tech Coalition.
Esto ha llevado a que desde finales de marzo, Meta haya proporcionado más de 3.800 URL únicas a las empresas tecnológicas de dicho programa. También establecerán mejoras en los métodos de control para evitar sistemas de alusión ante los programas de detección.
Meta también ha anunciado el desarrollo de nuevas tecnologías que identifiquen ciertos tipos de anuncios que entre otras cosas usan imágenes totalmente inofensivas para precisamente evitar ser detectados por los sistemas de detección de desnudez.
La tecnología identificará anuncios incluso cuando no incluyan desnudos, y se compenetrará con otras funciones para encontrar y eliminar anuncios aparentemente falsos "con mayor rapidez".
Por otro lado, Meta colaborará con expertos externos y ciertos equipos propios de especialistas para ampliar la lista de términos, frases e incluso emojis relacionados con la seguridad que los sistemas de la firma están capacitados para detectar en estos anuncios.
A todo esto hay que sumarle exhaustivas investigaciones "para exponer y desmantelar" redes de cuentas independientes que intentaban publicar anuncios promocionales de estos servicios; en total, estos expertos han acabado con hasta cuatro de estas redes.