Una imagen tomada durante la detención.
Desarticulan una red que distribuía imágenes de abuso sexual infantil generadas por IA: estaba presente en Málaga
Se han llevado a cabo 33 entradas y registros en domicilios, 4 de ellos en España, en las provincias de Madrid, Barcelona, Málaga y Jaén.
Más información: Detenido un hombre de 32 años por una presunta agresión sexual en una vivienda en Torremolinos
La tecnología, mal usada, puede tener efectos perversos y está pasando con la Inteligencia Artificial. La Policía Nacional ha informado este viernes que se ha desarticulado una banda que distribuía imágenes de abuso sexual a menores generadas por IA. Es una operación a escala europea y ha habido una intervención también en Málaga.
Se ha detenido a 25 personas y dos de ellas estaban en España, concretamente en Madrid y Barcelona. Se han llevado a cabo 33 entradas y registros en domicilios, 4 de ellos en España –en las provincias de Madrid, Barcelona, Jaén y Málaga– y 173 dispositivos electrónicos han sido incautados, 8 de ellos en nuestro país con 16.800 archivos.
Se trata, según indican desde la Policía nacional, de una de las primeras operaciones en las que se investiga material de abuso sexual infantil generado íntegramente por inteligencia artificial. La operación aún continúa abierta por lo que no se descartan nuevas detenciones.
La investigación comenzó a partir de la detención en el año 2024 de un ciudadano danés, quien dirigía una plataforma online a través de la que se distribuía material generado por IA que producía previamente. Usuarios de todo el mundo, después de realizar un pago simbólico en línea, podían obtener una contraseña para acceder al material de esta plataforma donde podían visualizar abusos a menores.
Durante el curso de la investigación, Europol y el Grupo de Trabajo Conjunto de Acción contra la Ciberdelincuencia (J-CAT) proporcionaron coordinación operativa a las autoridades implicadas en el caso. Asimismo el Centro Europeo de Ciberdelincuencia de Europol facilitó el intercambio de información y proporcionó inteligencia y análisis operativos a los investigadores de los diferentes países involucrados en la operación.
El proceso
La explotación sexual infantil online sigue siendo una de las mayores amenazas del delito cibernético en la Unión Europea y continúa siendo una de las principales prioridades de las autoridades que se enfrentan a un volumen cada vez mayor de este tipo de contenido ilegal.
El material sexual infantil autogenerado constituye una parte importante del CSAM que se detecta. Los delincuentes se sirven de modelos de IA capaces de generar o alterar imágenes para producir CSAM y extorsión sexual. Estos modelos están ampliamente disponibles y se han desarrollado rápidamente con resultados que actualmente se parecen cada vez más a las imágenes reales, lo que hace que sea más difícil identificarlos como material generado por inteligencia artificial.
Esto plantea importantes desafíos a las autoridades a la hora de identificar a las verdaderas víctimas. Incluso en los casos en los que el contenido es íntegramente generado por IA y no se representa a ninguna víctima real, como en esta operación, sigue contribuyendo a la cosificación y sexualización de los niños.