Publicada

"Miren estas dos fotos. La primera es una foto inocente de mis redes. La segunda fue creada en cuestión de segundos. No tengo ropa y la imagen tiene un contexto sexual: es mi cara, pero no mi cuerpo". Son palabras de la diputada belga Victoria Vandenberg, que este enero intervino en el Congreso con dos imágenes impresas en las que aparecía retratada.

Una de ellas era real. La otra había sido creada por ella misma empleando una herramienta de inteligencia artificial (IA). La dificultad de este ejercicio es inexistente: le bastó con subir a la aplicación el contenido a manipular y darle una indicación como "ponle un bikini" para que este, en un pestañeo, crease un deepfake imposible de distinguir de una foto tomada de verdad.

"Es impactante, humillante y podría haber sido real. Ese es precisamente el peligro. Hoy en día, cualquier chica puede perder el control de sus imágenes", lamentó ante la Cámara. Su intención era denunciar cómo el uso indebido de la tecnología está desembocando en una nueva forma de violencia digital deliberada contra las mujeres.

La denuncia de la diputada se produce en un momento marcado por la polémica que rodea a la red social X y a su bot de IA Grok —desarrollado por xAI, empresa de Elon Musk—, con el que se han difundido masivamente miles de imágenes manipuladas, entre ellas las de usuarias a las que se les ha eliminado la ropa para dejarlas semidesnudas.

Celebridades y personas anónimas, todas pueden convertirse en el objetivo de usuarios que campan a sus anchas por la plataforma alimentándola de contenidos que bien podrían asemejarse más a lo que se encuentra en un espacio de pornografía que a un servicio en el que puede registrarse cualquier mayor de 13 años.

Aunque X asegura que sus reglas "permiten a los menores participar en la conversación pública de forma libre y segura" gracias a sus reglas, en los últimos meses ha ido acumulando denuncias de internautas frustrados por la indefensión de las 'garras' de quienes pretenden cosificarlos y reducirlos a objetos sexuales delante de todo el mundo.

Una de las últimas en cargar contra la IA de Musk ha sido la actriz española Sara Sálamo. El usuario @jseluuu pidió a Grok que la editase con un "bikini blanco" y así lo hizo este. "Esto no va de tecnología, sino de poder", respondió la canaria en sus redes, lamentando vivir en una cultura "que confunde deseo con derecho y violencia con broma".

La presión sacude a Musk

El escándalo de Grok ha movilizado en las últimas semanas a grupos de feministas y padres que han solicitado a Google y Apple la retirada de esta plataforma así como de X de sus tiendas de aplicaciones. La activista Jenna Sherman, directora de campaña del colectivo UltraViolet, afirmó a Reuters que su acción al respecto "revelaría cuáles son sus valores reales".

A Elon Musk no le ha quedado más remedio que tomar cartas en el asunto. Aunque primero optó por limitar la opción a suscriptores premium, el 15 de enero rectificó y anunció que también restringiría para estos dicha posibilidad: "Hemos implementado medidas para evitar la edición de personas reales con ropa reveladora, como bikinis".

"Esto aplica a todos los usuarios, incluidos los suscriptores de pago", ha señalado la red en un comunicado. El magnate, azuzado por la presión regulatoria, también ha negado en X que Grok haya generado imágenes de menores desnudos. "No tengo conocimiento de ninguna. Literalmente ninguna".

La reacción global, con cada vez más líderes y organizaciones que deciden abandonar la red, ha crecido paralelamente a los ultimátums de los Estados al magnate. Malasia e Indonesia anunciaron en enero su intención de prohibir Grok y Filipinas anunció esta semana que restablecerá el acceso a la IA tras conocerse el reciente compromiso del magnate.

Reino Unido también informó de la entrada en vigor de leyes que prohibirán la creación de imágenes sexuales en línea sin consentimiento, mientras que Irlanda anunció que las autoridades están investigando más de 200 casos vinculados a la publicación de imágenes íntimas de menores.

Campaña contra el uso indebido de Grok en Londres, Reino Unido. Maja Smiejkowska Reuters

En Estados Unidos —país del que procede la que quizá haya sido la celebridad más asociada a los deepfakes, Taylor Swift—, el Senado aprobó por unanimidad la Defiance Act, que otorgaría a los ciudadanos el derecho a presentar demandas civiles en estos casos. Ahora, la iniciativa debe ser aprobada por la Cámara de Representantes para convertirse en ley.

Mientras tanto, la investigadora especializada en internet Genevieve Oh ha estimado, tras analizar una revisión de 24 horas de las imágenes publicadas por Grok entre el 5 y el 6 de enero, que este creaba diariamente 6.700 fotos clasificadas como sexualmente sugerentes o que implicaban la eliminación de ropa.

Desde España, la vicepresidenta de Trabajo Yolanda Díaz pidió recientemente la prohibición de Grok y amenazó a su propietario. "Voy a ir a por ti, y si tengo que cambiar el Código Penal para sentarte en un juzgado y para que cumplas la ley, lo voy a hacer", expresó la impulsora de Sumar, quien instó a la Unión Europea a ampliar la legislación sobre los algoritmos.

El 13 de enero, el Consejo de Ministros aprobó el anteproyecto de ley orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, un texto "más proteccionista y adaptado a las nuevas tecnologías", según la ministra portavoz del Gobierno Elma Saiz, que tratará de frenar la manipulación de imágenes y voces.

Una nueva forma de violencia

La creación de deepfakes no es un problema nuevo en redes sociales, pero, sin duda, se ha intensificado en los últimos años. La democratización de la IA generativa ha eliminado casi por completo la barrera técnica: hoy basta una fotografía, una app y un instante para fabricar una imagen falsa con apariencia real.

Cuando esa tecnología se utiliza para sexualizar, humillar o exponer sin permiso, el impacto deja de ser digital y pasa a ser personal. En 2025, España marcó un punto de inflexión después de que la Agencia Española de Protección de Datos impusiera la primera sanción administrativa en Europa por la creación y difusión de un desnudo falso generado con IA.

La multa —2.000 euros, reducidos a 1.200 por pronto pago— se dirigía contra el difusor de uno de los deepfakes sexuales vinculados al caso de Almendralejo, en la provincia de Badajoz, donde en septiembre de 2023 circularon imágenes manipuladas de al menos una veintena de menores.

La resolución es pionera en la Unión Europea y fija una idea clave: la imagen es un dato personal y su uso sin consentimiento constituye un tratamiento ilícito, aunque el cuerpo representado no sea real. Así que no hay excusa. El daño, subraya la AEPD, no desaparece solamente porque la imagen sea falsa.

El caso que forzó a actuar

Los hechos que sustentan la sanción se remontan al inicio del curso escolar 2023-2024. A través de aplicaciones como ClothOff, varios adolescentes incrustaron los rostros de compañeras en cuerpos desnudos ajenos. Las imágenes circularon primero por grupos de mensajería y después llegaron a OnlyFans y otros portales pornográficos.

La vía penal se activó de forma paralela y terminó con condenas a menores por delitos relacionados con la pornografía infantil. Pero la AEPD abrió un frente distinto: el administrativo. Tras dos años de investigación, el organismo concluyó que la difusión de esos montajes vulneraba el artículo 6 del RGPD, al no existir base legal que legitimara el tratamiento de la imagen de las víctimas.

Imagen de archivo de una mujer utilizando el ordenador. iStock

"Existe la falsa creencia de que, como la imagen es artificial, no hay delito. Y eso es completamente erróneo", explica Jesús Acevedo, abogado experto en derecho digital. “Aunque el cuerpo no sea real, el rostro identifica a la persona y provoca una violación directa de su honor, su intimidad y su derecho a la propia imagen, que son derechos fundamentales”.

En cuanto a las consecuencias, "todo depende del contexto y de la difusión. Cuanta más difusión, mayor es el daño y mayor la gravedad jurídica", añade. En el caso de Almendralejo, la afectación a menores fue determinante. La propia AEPD considera esta circunstancia como agravante, dada la especial vulnerabilidad del colectivo.

Más allá de la sanción económica, la entidad dispone de un mecanismo que se ha convertido en esencial para las víctimas: el canal prioritario, una vía urgente para solicitar la retirada de contenidos sexuales difundidos sin permiso. "No es por el vídeo o la foto, es por todo lo que hay detrás" es la frase con la que la plataforma anima a posibles denunciantes a dar el paso.

"Es, a día de hoy, la vía más eficaz para reaccionar", explica Esther González, experta de la consultoría en cumplimiento normativo Audidat. "En algunos casos, la retirada puede producirse en cuestión de horas o días. De manera paralela, la víctima puede acudir a la vía penal o civil, según el caso".

La recomendación de la especialista es clara: recopilar pruebas, denunciar en la plataforma, hacerlo formalmente —si es posible, con la asistencia de un abogado con conocimientos en protección de datos y derechos digitales— y no descuidar las necesidades de apoyo emocional "ante el impacto que puede causar esta violencia digital".

No es solamente Grok

Mientras la ley empieza a reaccionar a los deepfakes sexuales, la tecnología abre nuevos frentes. El abogado Jesús Acevedo pone el foco en otros ejemplos como uno que tiene forma de accesorio cotidiano: las gafas inteligentes, esas que coloquialmente se han conocido durante años como 'gafas espía' y cuya tecnología es ahora más avanzada que nunca.

El modelo más popular es el de las Ray-Ban Meta. Estas incorporan cámara, micrófonos y un asistente de IA capaz de capturar imágenes en tiempo real. Para advertir a terceros, el dispositivo incluye un pequeño LED que se enciende cuando está grabando, con el que el resto de usuarios pueden saber cuándo se está llevando a cabo esta acción.

Sin embargo, ese aviso puede neutralizarse con facilidad. "Ya se venden pegatinas específicamente diseñadas para tapar la luz", alerta Acevedo. "Y eso cambia completamente el escenario, porque demuestra una intención clara de ocultar que se está filmando. Jurídicamente, ahí ya hablamos de dolo".

Mark Zuckerberg, CEO de Meta, usa las gafas Meta Ray-Ban Display mientras pronuncia un discurso de presentación de la nueva línea de gafas inteligentes en California el 17 de septiembre de 2025. Reuters

En plataformas como Temu, como ha podido comprobar Magas | EL ESPAÑOL, estos adhesivos se comercializan sin grandes advertencias. Y en foros como Reddit, el debate va aún más lejos: algunos usuarios explican cómo perforar la montura, inutilizar sensores o quemar el LED con láser para grabar sin dejar rastro visible.

Algunos celebran poder "capturar momentos auténticos". Otros reconocen que así pueden grabar conciertos. Pero también hay ejemplos más problemáticos: en mayo de 2025, la Policía Nacional detuvo a un hombre por vulnerar la privacidad de chicas a las que abordaba por la calle y de las que capturaba vídeos sin su permiso con unas gafas inteligentes.

Según datos que en el momento de los hechos confirmó Crónica Global | EL ESPAÑOL, este lo hacía con unas Ray-Ban Meta y llegó a publicar 329 vídeos en sus redes sociales, de los cuales 239 atentaban gravemente contra la intimidad de sus víctimas.

También se han notificado casos similares al otro lado del charco. También en octubre del año pasado, la Universidad de San Francisco "emitió una advertencia a su comunidad sobre un hombre acusado de grabar a mujeres con comentarios no deseados y preguntas inapropiadas utilizando las gafas inteligentes de Meta", informó en una noticia el canal Fox Los Angeles.

El paralelismo de estas situaciones con el escenario que dibujan los deepfakes no es casual. "Grabar a una persona sin su consentimiento ya supone una vulneración de su intimidad", recuerda Acevedo. “Si además ese contenido se difunde o se manipula con inteligencia artificial, el daño se multiplica".

En este sentido, Meta establece normas claras de uso para asegurar el buen uso de su dispositivo: no grabar en vestuarios, baños públicos, escuelas, consultorios médicos o lugares de culto e informar siempre a las personas grabadas. Pero el cumplimiento depende casi por completo del usuario.

En todos estos casos, "si la plataforma anuncia controles pero el contenido dañino continúa difundiéndose, se considerará que no se está cumpliendo con la diligencia debida. Esta implica que la empresa adopte todas las acciones razonables para prevenir y eliminar usos ilícitos de su tecnología".

¿Quién responde por la IA?

La responsabilidad, coinciden los expertos, se reparte en varios niveles. El primero es quien crea o difunde el contenido ilícito. Pero no es el único. "El Reglamento de Servicios Digitales obliga a las compañías a actuar con rapidez cuando tienen conocimiento de un contenido ilegal", explica Esther.

Y añade que "el nuevo Reglamento Europeo de Inteligencia Artificial exigirá transparencia y medidas preventivas a los sistemas generativos". En la práctica, sin embargo, la respuesta suele llegar tarde. Acevedo es especialmente crítico con X: "Aún faltan canales claros, atención real a las víctimas y una voluntad efectiva de prevenir estos abusos".

Deepfakes sexuales y gafas inteligentes comparten algo esencial: ponen en crisis el consentimiento en la era digital. Ya no basta con no posar para una foto o con decir que no se quiere ser grabado. La imagen puede fabricarse o capturarse sin que la persona lo sepa y circular sin control.

"La IA no es el problema en sí", concluye Acevedo. "El problema es usarla sin ética y sin respeto por los derechos de los demás. No todo vale porque algo sea posible". La tecnología ya mira, crea y transforma. La pregunta, ahora, es si la ley y la sociedad llegarán a tiempo para ponerle límites.