El chatbot integrado de la red social de Elon Musk, Grok, lleva años causando estragos en España. Desde diciembre, sin ir más lejos, ha estado desnudando a mujeres sin su consentimiento.
Esta funcionalidad para generar imágenes de mujeres semidesnudas parece haberse salido de control. Según recoge Bloomberg, se habrían generado miles de imágenes similares por hora.
El portal cita los hallazgos de Genevieve Oh, una investigadora centrada en Internet y en deepfakes que ha dado una cifra escalofriante: 6.700 imágenes generadas en una sola hora.
Miles de desnudos generados por IA
Los mensajes cuestionables relacionados con Grok llevan presentes desde hace años, pero fue en diciembre cuando se estableció la moda de desnudar a mujeres en X.
Los usuarios comenzaron una tendencia escalofriante a la par de polémica en diciembre del 2025: pedir a Grok desnudar a mujeres que comparten sus fotos en la plataforma.
Y no nos referimos únicamente a desnudar de forma total. La gran mayoría de solicitudes han girado en torno a la generación de fotos de estas mismas mujeres en bikinis y prendas similares.
A esta situación ya turbia de por sí tuvimos que añadirle que la IA no distinguía de edad y por ende, había sido pillada publicando imágenes de niñas y adolescentes prácticamente desnudas o en bikini.
Pocas horas después del auge de esta tendencia, la cuenta oficial de Grok generó una respuesta pidiendo disculpas, hablando de "un lapso en las salvaguardas", aunque sin el perdón expreso de Musk.
Por supuesto, aseguró que la generación de contenido basado en las imágenes de menores de edad estaba prohibido y que era ilegal, prometiendo una solución rápida.
Si bien es cierto que el ritmo de publicaciones ha descendido, el perfil de Grok aún aglutina una ingente cantidad de imágenes de IA de personas desconocidas casi desnudas o en bikini.
Las cifras que arroja la investigadora respecto a esta tendencia son espectaculares, en el peor sentido posible. Porque no hablamos de cientos de imágenes por hora, sino de miles.
Genevieve, que habría realizado un análisis de apenas 24 horas de las imágenes publicadas por Grok en X, explicó que el ritmo de publicaciones era brutal.
Concretamente, 6.700 imágenes por hora que habían sido catalogadas como sugerentes o referentes a desnudos, superando a otros sitios conocidos por generar deepfakes parecidos.
La investigadora relata que los cinco sitios web más usados ajenos a Grok para estas prácticas registraron una media de 79 imágenes por hora de desnudos en un período de 24 horas.
Tras el auge anteriormente mencionado, tanto Musk como la cuenta de Seguridad de X publicaron sendos avisos advirtiendo que este contenido era ilegal.
En lugar de condenar las imágenes, Musk amenazó a los usuarios. "Cualquiera que use Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal".
Por otro lado, la cuenta de seguridad explicó que tomarían acciones legales contra dicho contenido, incluyendo los contenidos relacionados con abusos infantiles.
Eliminarán el contenido y suspenderán las cuentas de forma permanente. Además, anunciaron que trabajarían en conjunto con gobiernos locales "según sea necesario".
Ante estas amenazas, los usuarios han virado hacia la generación de imágenes en bikini, sexualizadas por supuesto. Y en el perfil de Grok no faltan ejemplos.
Las soluciones para las víctimas son prácticamente nulas, ya que la creación de contenidos con bikinis no viola explícitamente las normas de comunidad de X.
Por ello, los usuarios y usuarias que se han visto sexualizados por Grok no pueden hacer nada. De hecho, algunas denuncian inacción por parte de X y sus plataformas de moderación.
Bloomberg cita ejemplos de usuarias que habían visto cómo sus fotografías habían sido usadas sin su consentimiento para crear desnudos mediante Grok, y cómo habían denunciado las publicaciones originales.
Algunas acusan a X de no tomar acciones e incluso de calificar estos contenidos como legales en la red social. Muchas de estas imágenes siguen publicadas a día de hoy,
