Frases tan manidas —y grabadas en el imaginario colectivo— como "corres como una niña" o "llorar es de chicas" impregnan la sociedad con una capa de machismo que, en muchas ocasiones, no se entiende como tal. Lo mismo ocurre con los "a dónde vas así vestida" o la necesidad de control —saber la ubicación de la pareja en todo momento, conocer sus claves de redes sociales o llamar constantemente por teléfono mientras está con sus amigas—.
La repercusión última de este machismo interiorizado se refleja en las 38 asesinadas por sus parejas o exparejas este 2025 en España. O en, como alertan desde Amnistía Internacional, las 2.655 denuncias por violación del primer semestre de este año, o las 7.907 por agresiones sexuales sin penetración y otros delitos sexuales.
Pero la violencia machista va más allá del plano físico. Se retrata en pequeñas acciones cotidianas interiorizadas que, desde hace más de una década, han permeado también al mundo digital. "Que una rider sea recibida por un tipo en calzoncillos que le diga lo mona que es" sería un ejemplo de ella, como indica Begoña García, doctora en Derecho e investigadora de la Universidad Rey Juan Carlos.
Lo mismo, dice, que también lo es la "manipulación logarítmica", que hace que el perfil de una mujer sea "premiado" por su físico y le llegue más fácilmente a un tipo de usuarios (hombres) que interactúan de manera no deseada. Este último tipo de violencia, la digital, es invisible en la mayoría de las veces y preocupa a las expertas, pues "quienes la reciben no siempre son conscientes de ello".
Machismo digital
En septiembre de 2023 se destapaba el caso de Almendralejo. Cerca de una treintena de niñas, de entre 11 y 17 años, vieron circular fotografías de sí mismas desnudas en las que la inteligencia artificial había eliminado su ropa. Y parece que poco hemos aprendido desde entonces.
En junio de este año, la Policía Nacional investigaba a tres menores de edad en Puertollano (Ciudad Real) como presuntos responsables de crear imágenes pornográficas de compañeras con IA y distribuirlas en su centro educativo. Y, en julio, la Guardia Civil seguía la pista a un joven de 17 años por cometer el mismo delito, esta vez tratando de publicitarlas con la intención de vender el contenido.
En esta ocasión son tan solo tres casos los mencionados, pero desgraciadamente escenarios como estos no son una excepción. Y es que, tal y como indica el informe State of deepfakes 2023 de Home Security Heroes, entre 2022 y 2023 la pornografía creada a partir de la manipulación de imágenes aumentó un 464%.
Así, la tecnología se ha convertido en un arma de doble filo que acecha, específicamente, a la población femenina. Lo vemos, por ejemplo, con Ani, el asistente virtual de inteligencia artificial desarrollado por Grok, la compañía impulsada por Elon Musk.
En él, explica Stepanhy Oliveros, CEO de SheAI y experta en este sector, se ve "un avatar de una mujer hipersexualizada, muy joven, que no tiene ningún tipo de barrera del lenguaje e incentiva la cosificación". De hecho, indica, los usuarios pueden exigirle que se quite la ropa delante de ellos, así como crear contenido sexual altamente explícito a medida.
Otro ejemplo sería Sora, el modelo de inteligencia artificial de texto a vídeo desarrollado por Open IA, con el que se han llegado a generar films de todo tipo de mujeres, incluso "de niñas siendo violadas en grupo". Y es que, una vez más, dice Oliveros, se emplea el pretexto de "bueno, mejor que se genere, porque así no se lastima a nadie. No es contenido real, es ficción".
A esto se suma que, tal y como señala la experta en IA, todos los asistentes virtuales "por alguna razón" tienen voz femenina. Cortana, Alexa, Siri... "Es como tener una mujer a tu servicio", precisamente lo que se busca a través de contenidos como las novias IA.
Por hombres, para hombres
Uno de los obstáculos, dice Oliveros, es que tan solo el 22% de las personas trabajando en inteligencia artificial son mujeres. "La mayoría que crea y hace investigación de esto son ellos; los moderadores, los entrenadores de la IA, los que recaban los datos...".
Esto, además, empeora si se tiene en cuenta el método de funcionamiento que predomina en Silicon Valley: crear y luego averiguar cómo se vende y para qué sirve.
"No piensan en las consecuencias sociales porque lo más importante es generar algo con muchísima repercusión económica. Les da igual si sirve, si no o cómo lo utiliza la gente", asegura la CEO de SheIA.
La IA 'revoluciona' el porno
Por su parte, Begoña García recuerda que "la digitalización ha generado nuevas desigualdades", que se hacen más palpables al hablar de deepfakes, inteligencia artificial y contenido pornográfico.
Al respecto de este último, Oliveros recuerda que "es una de las cosas más dañinas y tóxicas que existía" antes de la era digital, por "todas esas actitudes que genera en contra de las mujeres".
Y ya no solo porque, según diversos estudios, la violencia que se ejerce es la pantalla es real. También porque quien la consume "ve a la persona directamente como un objeto, sin sentimientos y solo con una función".
Aun así, según datos del Ministerio de Igualdad, en España, 6 de cada 10 adolescentes accede a pornografía y, de estos, casi la mitad admite ver "demasiada". Asimismo, el inicio de esta exposición se da entre los 8 y los 10 años. El 30%, además, llega a ello de forma accidental.
La inteligencia artificial y los deepfakes, según The Internet Watch Foundation (IWF), estarían haciendo, además, que las imágenes sexuales realistas con menores involucrados sean cada vez más frecuentes en la red. Este tipo de pornografía —y toda en general—, a su vez, se caracterizan por un contenido cada vez "más violento y brutal".
Esta conjugación de factores, indica Oliveros, provoca una "amplificación masiva y significativa" de actitudes violentas, que se refuerzan por el consumo de este tipo de producto. Esto se traduce en un "si no te comportas de esta forma, no me sirves" en las relaciones de pareja.
'Desnudas' emocionalmente
Tal y como explica Cristina Pujol, profesora de la Univesitat Oberta de Catalunya (UOC) e investigadora del grupo GAME, en un artículo publicado por el propio centro de estudios, la creación de este tipo de imágenes, "tiene un efecto psicológico importante". Pues representan "unas prácticas que, aunque nunca hayan ocurrido en realidad, son muy realistas".
Esto, afirma, se trata de una manera de "extender un terror sexual en un contexto de ciberacoso generalizado". De igual manera, este contexto destaca por su "doble moral" que "penaliza o sanciona socialmente a las mujeres que aparecen en vídeos sexuales con mucha más dureza que cuando los protagonistas son hombres".
En el mismo texto, Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación y del grado de Criminología de la UOC, apunta a que "esta nueva forma de ejercer violencia por medios digitales que amplían su alcance y magnifican las consecuencias en las víctimas que las padecen" supone un duro golpe para la salud mental de ellas.
Asimismo, varias investigaciones concluyen que provocan altas tasas de ansiedad, depresión, autolesiones e, incluso, suicidio. Porque, aunque las imágenes no sean reales, el impacto sí lo es.
