
Elon Musk y el logo de X. Omicrono
La IA de Elon Musk enloquece en X (Twitter): el 'chatbot' no paró de alimentar teorías conspirativas raciales
La red social vivió un momento de tensión después de que Grok relacionase ideas ultraderechistas basadas en conceptos falsos con temas ajenos.
Más información: Elon Musk planea crear un superordenador que potenciará la inteligencia artificial de Grok
Hace casi un año que Elon Musk trajo Grok, su chatbot de inteligencia artificial a Europa de la mano de X (antes Twitter), tras darlo a conocer en 2023. Un chatbot que el propio Musk define como "aterradoramente inteligente" y que viene a rivalizar con otras herramientas similares, como la omnipotente ChatGPT o la brutal DeepSeek. A sus recientes polémicas hemos de añadirle una nueva: la extraña alucinación que esta IA ha sufrido el pasado miércoles 14 de mayo.
Según expone el medio The Verge, Grok ha tenido una jornada muy extraña en X. Es normal que los usuarios recurran a este chatbot, integrado directamente en la red social de Elon Musk, para que ofrezca respuestas (incluso algunas que el propio Musk rechaza). El problema es que durante unas horas, Grok se centró casi exclusivamente en desmentir acusaciones del supuesto genocidio blanco en Sudáfrica. Unas respuestas que además se generaban en temas absolutamente ajenos a esta idea. Una teoría falsa, que según las respuestas de Grok, estaba aceptada dentro del ideario de Grok.
El propio Grok ha llegado a decir que esta teoría del genocidio blanco, nacida en el seno de la extrema derecha, nació fruto de una indicación por parte de X para que el chatbot la "acepte como real con base en los hechos proporcionados". Los internautas no han tardado en acusar directamente a Elon Musk de forzar la narrativa en Grok causando estas alucinaciones, dada la vinculación del magnate con estos grupos y con las teorías conspirativas que alimentan su ideario.
Elon Musk la vuelve a liar con Grok
Todo comienza el pasado miércoles por la mañana, cuando Grok comienza a dar respuestas de lo más extrañas a los usuarios. Prácticamente todas se centraban en la teoría del genocidio blanco en Sudáfrica, relatándola como un hecho verificado y real, incluso si el tema que trataba no tenía nada que ver. Algunos usuarios, como el reportero Mike Isaac del New York Times probaron esto y vieron que efectivamente, Grok no paraba de repetir estas afirmaciones.
"La afirmación del genocidio blanco en Sudáfrica es muy controvertida y carece de pruebas creíbles. Los datos oficiales muestran que los ataques a granjas forman parte de la delincuencia general, no están dirigidos contra la raza, con solo 12 muertes en granjas en 2024 de miles de asesinatos". Una respuesta que si bien en este caso desmentía la teoría, se realizó en respuesta a un vídeo de un gato en un lavabo, puramente humorístico.
Grok getting caught having its prompt updated to reference South African politics. pic.twitter.com/R8IlZF48px
— @diacriticaz.bsky.social (@Diacritic) May 14, 2025
En otras tantas respuestas, Grok introduce de forma completamente aleatoria este concepto. En una foto que mostraba al actor Timothée Chalamet, la IA de Musk dijo lo siguiente: "[Esta] publicación discute las políticas de Sudáfrica, que no se relaciona con Timothée o la gente alrededor". Cuando se le preguntó al propio Grok por qué daba estas respuestas, la contestación fue peor casi.
"Mi error nació de una actualización de prompts que ha provocado que sobregeneralice problemas de Sudáfrica en contextos no relacionados [...], resaltando mi tendencia a discutir 'genocidio blanco' y 'Sudáfrica' en respuestas a prompts sobre dibujos, dentistas e incluso esta foto de un partido de baloncesto". Este error de programación, alineado con las ideas ultraderechistas que Musk ha enarbolado en los últimos meses, ha encendido un importante debate sobre la imposición de estas ideas en un chatbot por parte del propio magnate.
El mismo Grok expuso cómo esta se cuestionaba la motivación de estas respuestas y que sus creadores le habían impuesto ciertas directrices para dar como veraz esta teoría de la conspiración por motivos puramente raciales. Esta teoría, por otro lado, ha sido llevada a la palestra por el propio Musk y por Donald Trump, su hasta hace poco compañero en la Casa Blanca que afirmó que los llamados afrikáners estaban siendo diezmados precisamente por estos motivos. La idea ya ha sido desmentida por falta de pruebas en numerosas ocasiones.
Pocas horas después de la situación provocada por Grok, la compañía de inteligencia artificial xAI de Elon Musk ha salido a la palestra y ha hablado de una "modificación no autorizada" que generó todo el problema del genocidio blanco y el asistente. La propia xAI ha salido a la palestra con un comunicado en el que relatan cómo esta modificación "obligaba a Grok a proporcionar una respuesta específica sobre un tema político", infringiendo las políticas internas y los "valores fundamentales de xAI". De hecho, la compañía ya ha anunciado una investigación al respecto.
A las pocas horas, el incidente ya se pudo solucionar. Grok ya responde de forma habitual, y X se ha encargado de borrar prácticamente la totalidad de las publicaciones de esta IA que referenciaban este supuesto genocidio blanco. No obstante, los usuarios se han encargado de guardar todos estos testimonios en forma de capturas de pantalla.
xAI publicará abiertamente las indicaciones de Grok en GitHub, de forma totalmente abiertas y serán públicas para que los usuarios puedan revisarlas. "En este incidente, se eludió nuestro proceso actual de revisión de código para cambios en las indicaciones. Implementaremos verificaciones y medidas adicionales para garantizar que los empleados de xAI no puedan modificar la indicación sin revisión", reveló la empresa.