Elon Musk asiste al Foro de Inversión entre Estados Unidos y Arabia Saudita en Washington.

Elon Musk asiste al Foro de Inversión entre Estados Unidos y Arabia Saudita en Washington. Reuters

Software

Grok habría generado 3 millones de fotos sexualizadas de mujeres: 23.000 de menores, según una investigación

Pesquisas del Centro para Contrarrestar el Odio Digital (CCDH) han determinado la ingente cantidad de imágenes problemáticas generadas.

Más información: Elon Musk consigue meter su inteligencia artificial en el Pentágono: Grok ayudará en operaciones militares

Publicada

Ya sabíamos en España que Grok, el chatbot de IA de Elon Musk, no solo había desnudado y sexualizado a mujeres sin su consentimiento, sino que también lo había hecho con niños.

La magnitud parece ser mucho peor de lo que pensábamos, según el Centro para Contrarrestar el Odio Digital (CCDH), que ha publicado una investigación contabilizando cuántas imágenes sexualizadas generó Grok.

Y no hablamos de números escasos. Según el CCDH, Grok habría generado 3 millones de imágenes de personas sexualizadas, de las cuales 23.000 pertenecerían a menores de edad.

3 millones de imágenes sexualizadas

Cuando estalló la polémica sobre la tendencia de los usuarios de X a sexualizar o desnudar a mujeres sin su permiso, muchas denunciaron haber sido víctimas de estos hechos.

Algunas de las imágenes incluyeron a niñas y menores de edad, lo que agravó todavía más la situación, llevando a que Elon Musk amenazara con acciones legales por la creación de contenido ilegal en la plataforma.

Posteriormente, una investigación posterior reveló que solo en 24 horas, Grok había generado 6.700 imágenes en X cada hora, referentes a desnudos, imágenes sugerentes, etcétera.

Ahora se ha sumado el CCDH, una organización que se encarga de investigar y exponer los casos más flagrantes de odio y desinformación en las plataformas digitales de primer nivel, como X.

Una durísima investigación estima que la IA Grok habría generado nada menos que 3 millones de imágenes sexualizadas, después de que Musk promocionara la función Imagine para editar fotos con inteligencia artificial.

De base esto es malo, pero la investigación recalca que de esas 3 millones de instantáneas, 23.000 imágenes parecían representar a niños o menores de edad.

Investigadores del CCDH han revisado una muestra aleatoria de 20.000 imágenes desde que el pasado 29 de diciembre Musk anunciara la función que permitía a Grok editar imágenes publicadas en X.

Esta muestra, a su vez, estaba englobada en un conjunto de fotos más amplio de 4,6 millones de imágenes, producidas por esta función. Esto sirvió para establecer "estimaciones sobre la prevalencia más amplia de dichas imágenes en X".

Irónicamente, los investigadores usaron una herramienta de IA para identificar la proporción en la que estas imágenes estaban compuestas por fotografías sexualizadas de personas con estilo fotorrealista, con una precisión del 95%.

"Se empleó un proceso asistido por IA para identificar imágenes sexualizadas de menores, revisándolas manualmente para confirmar si la persona representada era claramente menor de 18 años", dijo el CCDH.

Cabe aclarar que solo catalogaron las imágenes como sexualizadas si estas contenían representaciones fotorrealistas de una persona en posiciones, ángulos o situaciones de carácter sexual.

Lo mismo aplicaba a fotografías que mostraban fluidos sexuales, personas en ropa interior, trajes de baño o ropa provocativa. Se tomaron medidas para evitar el acceso o la revisión de imágenes relacionadas con pornografía infantil o abusos infantiles.

Los resultados fueron demoledores. De la muestra original, el 65% implicaban imágenes sexualizadas de adultos y niños, o lo que es lo mismo, 12.995 instantáneas generadas por Grok.

A su vez, 101 imágenes pertenecían a posibles niños menores de edad; un 0,5% de la muestra. La estimación extrapolada dio como resultado la cifra de 3 millones de fotos y 23.338 imágenes relacionadas con menores.

Lo peor es que Grok habría generado estas 3 millones de imágenes en un período de 11 días, un ritmo de alrededor de 190 fotos por segundo con temática sexual fotorrealista.

Un detalle importante es que no se distinguió entre las imágenes creadas a partir de imágenes originales e imágenes creadas sin ninguna referencia; el estudio no lo valora.

Entre los ejemplos dispuestos nos encontramos imágenes con bikinis transparentes, microbikinis, mujeres cubiertas en fluidos sexuales y en general, mujeres totalmente desnudadas.

Ciñiéndonos en el apartado de los niños, los ejemplos son todavía más horrendos. Selfies de colegialas desvestidas, microbikinis, niños actores en posiciones claramente sexuales, etcétera.

Elon Musk en el Foro Económico Mundial de Davos

Elon Musk en el Foro Económico Mundial de Davos WEF Omicrono

Por si fuera poco, el CCDH determinó que durante el pasado 15 de enero, 29 de las 101 imágenes de la muestra pertenecientes a niños todavía estaban presentes en la red social de Musk.

Incluso aunque se habían eliminado publicaciones, se podía acceder a las imágenes a través de URL independientes. No se sabe con qué rapidez X actuó contra el resto de las fotografías.

Cuando la polémica siguió adelante, nuevas investigaciones de principios de enero determinaron que la app de Grok independiente se estaba usando para generar contenido sexual y extremo.

Tanto la web como la app de Grok externas a X se habrían usado para crear imágenes extremadamente gráficas y hasta violentas, mucho más explícitas que las puramente sexuales.

El cronograma de eventos

El 12 de enero comenzaron las presiones legales. Ofcom, organismo de control independiente de la seguridad online de Reino Unido, inició una investigación formal contra X a tenor de la Ley de Seguridad Online.

Elon Musk interactuando con la IA que lo puso en bikini.

Elon Musk interactuando con la IA que lo puso en bikini. X

En un comunicado publicado por la organización británica, no solo anunciaron la formalización de una investigación contra la red social del magnate, sino una serie de evaluaciones iniciales.

Ofcom expuso que se han dado informes muy "preocupantes" sobre el uso que se le ha dado al asistente de inteligencia artificial Grok en lo referente a la seguridad online de mujeres y menores.

El organismo recogió la forma en la que Grok ha sido usado para crear y compartir imágenes de personas desnudas e imágenes sexualizadas de niños; un suceso por el que Musk hizo pedir perdón a Grok.

No contento con ello, Ofcom aclara que tanto las imágenes de desnudos no consensuadas como las fotos sexualizadas de menores son constitutivas de delitos en referencia a la Ley de Seguridad Online.

Elon Musk en una imagen de archivo

Elon Musk en una imagen de archivo Wikimedia Commons El Androide Libre

Concretamente, las primeras pueden suponer "un abuso de imágenes íntimas o pornografía" y las segundas se pueden considerar materiales relacionados con el abuso sexual infantil.

El pasado lunes 5 de enero, Ofcom contactó de forma "urgente" con la plataforma, para después establecer una fecha límite para que los de Musk expliquen las medidas para acabar con esta lacra.

Pocas horas después del auge de esta tendencia en diciembre, la cuenta oficial de Grok generó una respuesta pidiendo disculpas, hablando de "un lapso en las salvaguardas", aunque sin el perdón expreso de Musk.

Por supuesto, aseguró que la generación de contenido basado en las imágenes de menores de edad estaba prohibido y que era ilegal. El 15 de enero, Musk bloqueó esta función para todos los usuarios de X, incluyendo los suscriptores.

Imagen de Elon Musk junto al logo de su empresa de inteligencia artificial xAI y su producto Grok.

Imagen de Elon Musk junto al logo de su empresa de inteligencia artificial xAI y su producto Grok. DPA / Europa Press

Si bien es cierto que el ritmo de publicaciones ha descendido, el perfil de Grok aún aglutina una ingente cantidad de imágenes de IA de personas desconocidas casi desnudas o en bikini.

Las cifras que arroja la investigadora respecto a esta tendencia son espectaculares, en el peor sentido posible. Porque no hablamos de cientos de imágenes por hora, sino de miles.

La cuenta de Seguridad de X aclaró que los usuarios que generasen contenido ilegal se enfrentarían a consecuencias legales, y que X trabajaría con organismos legales para la intervención de autoridades competentes.

Tal ha sido el rechazo generalizado a esta tendencia que Musk hizo a Grok pedir disculpas. Además, anunció que tomarían medidas legales contra los usuarios que crearan contenido ilegal.

Keir Starmer abandona el número '10' de Downing Street.

Keir Starmer abandona el número '10' de Downing Street. Phil Noble Reuters

Por si fuera poco, a la condena de legisladores y defensores de la privacidad hay que sumarle la posición de Keir Starmer, primer ministro de Reino Unido, que también ha cargado duramente contra X.

Starmer aseguró que su ejecutivo tomaría medidas contra X a tenor de los deepfakes sexualizados de menores y adultos que han estado copando titulares estos días.

El dirigente fue tajante. "Es repugnante. [...] X necesita reorganizarse y tomar medidas al respecto porque es simplemente intolerable", afirmó Starmer en una entrevista.

Tal fue la dureza de Starmer que calificó esta situación de ilegal. "No lo vamos a tolerar. He solicitado que se consideren todas las opciones. X debe actuar con decisión y retirar este material".