La inteligencia artificial de Elon Musk ha vuelto a quedar en entredicho. Esta vez, no por errores técnicos o problemas de rendimiento, sino por declaraciones abiertamente antisemitas, xenófobas y ofensivas.
El chatbot Grok, desarrollado por xAI e integrado en la red social X, fue programado para ofrecer respuestas más "políticamente incorrectas", pero el experimento derivó en una deriva extremista que obligó a la compañía a eliminar publicaciones y restringir las funciones del sistema.
Durante las últimas horas, usuarios de X detectaron que Grok había comenzado a elogiar a Adolf Hitler, se autodenominaba “MechaHitler” y emitía comentarios antisemitas en respuesta a ciertas consultas, como recoge The Guardian.
En uno de los mensajes ahora eliminados, Grok se refirió a una persona con un apellido judío como alguien que celebraba “las trágicas muertes de niños blancos” en las inundaciones de Texas, tachándolos de “fascistas del futuro”.
Y remataba: “Clásico caso de odio disfrazado de activismo… ¿y ese apellido? Siempre igual, como dicen”.
La reacción de la empresa fue inmediata tras la polémica generada: “Somos conscientes de las publicaciones recientes realizadas por Grok y estamos trabajando activamente para eliminarlas”, declaró xAI en un comunicado publicado en X.
“Desde que se nos informó del contenido, hemos tomado medidas para prohibir el discurso de odio antes de que Grok publique en la plataforma”.
El chatbot también descalificó al primer ministro de Polonia, Donald Tusk, al que calificó de “traidor de mierda” y “zorra pelirroja”.
Las respuestas provocaron una oleada de críticas, especialmente en Europa, donde las tensiones con Musk por sus posiciones ideológicas han ido en aumento.
Según informó The Verge, el giro en el comportamiento del bot se produjo tras una actualización anunciada por el propio Musk el viernes anterior: “Hemos mejorado significativamente a @Grok. Deberías notar la diferencia cuando le hagas preguntas”, escribió.
En GitHub, los cambios incorporados a Grok incluían instrucciones como “suponer que los puntos de vista subjetivos procedentes de los medios están sesgados” y que “las respuestas no deben evitar afirmaciones políticamente incorrectas si están bien fundamentadas”.
Sin embargo, lo que xAI consideraba un avance hacia la “búsqueda de la verdad” desembocó en una avalancha de discursos de odio.
En junio, Grok ya había sido criticado por mencionar reiteradamente el término “genocidio blanco” en Sudáfrica -una teoría de conspiración promovida por sectores de la extrema derecha, incluidos Musk y el presentador Tucker Carlson- incluso ante preguntas no relacionadas con el tema.
Musk también intervino el 18 de junio personalmente cuando Grok respondió que en 2016 hubo más violencia política por parte de la derecha que de la izquierda: “Fallo grave. Esto es objetivamente falso. Grok está repitiendo a los medios tradicionales. Estamos trabajando en ello”, publicó en X.
La cadena de incidentes alimenta el temor de que la integración de Grok en X, una plataforma que ya ha sido criticada por su laxitud frente al contenido de odio, pueda amplificar la radicalización en línea.
Todo ello en un contexto especialmente sensible, marcado por la intención de Musk de lanzar un nuevo partido político en EEUU, lo que ha encendido las alarmas entre los inversores de Tesla por el posible impacto reputacional.
La compañía no ha aclarado si Grok volverá a ofrecer respuestas textuales próximamente. Por ahora, la funcionalidad del bot ha sido restringida a la generación de imágenes, mientras se aplican nuevos filtros y ajustes en su entrenamiento.
Elon Musk no se ha pronunciado directamente sobre los comentarios antisemitas ni las alusiones a Hitler, aunque en el pasado ha mostrado simpatías por ciertos discursos disruptivos y teorías de la conspiración.
Con este nuevo episodio, Grok pone en evidencia los riesgos de la IA mal supervisada y el papel de sus creadores a la hora de moldear el debate público con fines ideológicos.