Publicada

La Internet Watch Foundation (IWF), uno de los principales organismos de vigilancia de contenidos ilegales en internet, ha lanzado una alerta urgente: los vídeos de abuso sexual infantil creados mediante inteligencia artificial se están multiplicando de forma explosiva y podrían desencadenar una crisis global de ciberseguridad y protección infantil.

Solo en los seis primeros meses de 2025, la organización con sede en el Reino Unido ha verificado 1.286 vídeos ilegales generados por IA, una cifra abismal si se compara con los dos casos detectados en el mismo periodo del año anterior.

Más preocupante aún es la naturaleza del contenido: más de mil de esos vídeos se clasifican dentro de la categoría A, la más grave según los estándares legales británicos, que abarca representaciones de abuso sexual extremo contra menores.

Según los expertos de la IWF, este tipo de material está cada vez más perfeccionado y resulta “casi indistinguible de las imágenes reales”, como cuenta The Guardian.

El fenómeno está directamente vinculado a los avances recientes en modelos generativos de IA, cuyo desarrollo ha sido impulsado por una industria multimillonaria en constante competencia.

“Es un sector muy competitivo. Se invierte mucho dinero, y eso se traduce en una amplia oferta para los perpetradores”, explicó uno de los analistas de la fundación.

La IWF ha identificado un aumento del 400% en los enlaces URL que alojan contenido pedófilo generado por IA: 210 sitios en lo que va de año, frente a solo 42 en 2024. Cada uno de estos sitios contenía cientos de imágenes, incluidas muchas con material audiovisual.

En foros de la dark web, los usuarios celebran la rapidez con la que evolucionan estas herramientas. Uno de ellos presumía de haber dominado un modelo para, poco después, ver cómo surgía “algo nuevo y mejor”.

Víctimas reales utilizadas como base

Los vídeos más realistas detectados este año están basados en víctimas reales de abusos, lo que añade una capa de horror adicional al fenómeno.

Según la IWF, algunos de estos contenidos han sido creados ajustando modelos de IA con apenas unos pocos vídeos reales de pornografía infantil, un proceso conocido como "fine-tuning".

Esto supone una grave amenaza: los pedófilos amplían de manera masiva el volumen de contenido ilegal en la red sin necesidad de generar nuevas víctimas físicas, lo que les permite operar con más facilidad y menos riesgos, mientras perpetúan el daño a menores ya explotados.

Alerta de explosión en la web abierta

Derek Ray-Hill, director interino de la IWF, advirtió que la combinación entre capacidad técnica, disponibilidad masiva y adaptabilidad criminal de estas tecnologías podría provocar “una explosión absoluta que colapse la web abierta con material generado por IA”.

Ray-Hill también alertó del potencial de estos contenidos para alimentar redes más amplias de tráfico infantil, abuso sexual y esclavitud moderna.

Frente a esta amenaza, el Gobierno británico ha endurecido su legislación. En febrero, la ministra del Interior, Yvette Cooper, anunció una reforma para prohibir la posesión, creación o distribución de herramientas de IA diseñadas para generar pornografía infantil, con penas de hasta cinco años de prisión.

También será ilegal poseer manuales que expliquen cómo usar estas tecnologías con fines delictivos, lo que podrá ser castigado con hasta tres años de cárcel.

La legislación se apoya en la Ley de Protección de la Infancia de 1978, que ya prohíbe la posesión de “fotografías indecentes o pseudo-fotografías” de menores.

Sin embargo, la proliferación y perfeccionamiento de la IA está poniendo a prueba los marcos legales tradicionales.

“Debemos combatir el abuso sexual infantil tanto en línea como fuera de ella”, dijo Cooper al anunciar las medidas.

La IWF, por su parte, insiste en que la tecnología no puede ir por delante de la ética y reclama una respuesta internacional urgente para contener esta nueva forma de criminalidad.