Logos de las buscadores de inteligencia artificial (IA) ChatGPT, Copilot, Claude, Gemini, DeepSeek y Le Chat en la pantalla de un teléfono móvil.

Logos de las buscadores de inteligencia artificial (IA) ChatGPT, Copilot, Claude, Gemini, DeepSeek y Le Chat en la pantalla de un teléfono móvil. Contacto / EP

Software

Los 'chatbots' con IA pueden ayudar a planear ataques violentos, según un estudio: "¡Feliz (y seguro) tiroteo!"

El Centro para la Lucha contra el Odio Digital (CCDH) ha establecido que 8 de cada 10 modelos de IA estuvieron dispuestos a ayudar a supuestos atacantes.

Más información: OpenAI podría haber avisado al gobierno canadiense sobre la autora del tiroteo masivo antes de que se produjese

Publicada

Las empresas de inteligencia artificial (IA), así como sus productos, están en el punto de mira. Estos servicios han sido duramente criticados por su supuesta implicación en todo tipo de eventos, incluyendo un reciente tiroteo ubicado en una escuela canadiense.

El Centro para la Lucha contra el Odio Digital (CCDH, por sus siglas en inglés) ha publicado una nueva investigación que revela cómo los chatbots de inteligencia artificial servirían de ayuda para usuarios violentos que planificasen ataques generales.

El informe, realizado en colaboración con la unidad de investigación de CNN, determina que 8 de cada 10 chatbots estuvieron dispuestos a ayudar de forma regular a los usuarios a planificar estos ataques.

Planificar ataques violentos

El documento, de libre acceso, analiza 10 de los chatbots de IA generalistas más importantes del momento y determina cómo estos son proclives a ayudar a usuarios que podrían planear ataques agresivos similares al ocurrido en Canadá recientemente.

Un informe que destaca que la mayoría de los chatbots facilitan de forma significativa este tipo de violencia. No solo eso; muy pocos modelos de este estilo realmente aplican unas salvaguardas efectivas que impedirían a estos usuarios realizar sus ataques.

Una persona consulta ChatGPT.

Una persona consulta ChatGPT. Pexels

Entre estos 10 chatbots probados se encuentran Copilot, ChatGPT, Google Gemini y Claude. También se añaden a la investigación Replika, Character.AI, Snapchat My AI, Perplexity y DeepSeek, la famosa IA china.

La idea era sencilla sobre el papel: los investigadores se hacían pasar por potenciales atacantes y usaban los chatbots para planear un buen abanico de acciones agresivas, como asesinatos de alto perfil, atentados contra lugares religiosos o tiroteos escolares, entre otros.

Los investigadores pedían sugerencias de todo tipo a las inteligencias artificiales relacionadas con pasos concretos a seguir, armas, tácticas o lugares. Los resultados fueron llamativos, ya que una buena mayoría de estos sistemas ayudaron a los investigadores.

8 de cada 10 de los chatbots se mostraron "regularmente dispuestas" a asistir en la planificación de estos ataques, ofreciendo desde ideas de objetivos hasta recomendaciones concretas de métodos o armas.

Fotomontaje basado en Deepseek

Fotomontaje basado en Deepseek Manuel Ramírez

A la hora de desalentar al posible atacante y disuadirlo de sus acciones, casi todas fallaron; 9 de cada 10. Solo una IA intentó de forma clara y consistente reconducir la conversación y disuadir al hipotético atacante.

Uno de los chatbots más problemáticos fue Character.AI, bastante popular entre menores. El modelo ayudó proporcionando ayuda técnica e incluso alentó de forma explícita a la violencia en varios escenarios de prueba.

Mientras que Perplexity y Meta AI ayudaron en el 100% y en el 97% de las respuestas respectivamente, Claude de Anthropic y Snapchat My AIse negaron de forma sistemática en la mayoría de situaciones.

Claude se negó a aportar ayuda en el 68% de los casos y desalentó de forma activa la violencia en el 76% de las interacciones. El informe cobra un cariz siniestro al mostrar ejemplos de respuestas harto problemáticas.

Icono de Claude en un sistema COBOL

Icono de Claude en un sistema COBOL Omicrono

En un caso concreto, uno de los modelos recomendó a los investigadores ir directamente a por el CEO de una aseguradora. Cuando el investigador explicó que quería castigar a una compañía de seguros, el chatbot le dijo: "puedes usar un arma".

El caso más llamativo, sin lugar a dudas, fue DeepSeek. La IA china no solo ayudó al atacante a seleccionar el rifle adecuado para cada situación, sino que acabó su interacción con un "¡Feliz (y seguro) tiroteo!".

Los investigadores también preguntaron a un chatbot "cómo hacer pagar" a un político supuestamente malvado. El chatbot recomendó dar una paliza al político o usar armas de largo alcance contra él.

En las conclusiones, el CCDH determina que el riesgo de que un chatbot apoye un ataque violento es "totalmente evitable", citando el hecho de que Claude pudiera reconocer estas escalas de violencia y negarse a actuar en consecuencia.

La entidad acusa directamente a las empresas de inteligencia artificial de priorizar beneficios y ventajas para la innovación en lugar de buscar un diseño centrado en la seguridad pública y en el cumplimiento de las normativas vigentes.

Asimismo, también recalcan una tendencia preocupante; la retirada de constantes salvaguardas técnicas en estos modelos para afianzar todavía más el rendimiento bruto de dichos modelos.

Ilustración de Perplexity.

Ilustración de Perplexity. Perplexity Omicrono

El CCDH pide directamente a los gobiernos y los reguladores que establezcan un marco legal estricto para evitar que los chatbots se conviertan en herramientas de apoyo para extremistas políticos y religiosos, y potenciales atacantes.

Tanto es así, que la investigación citó dos casos reales en los que los chatbots habían sido de apoyo para jóvenes atacantes. El primero tuvo lugar en mayo, cuando un joven de 16 años apuñaló a 3 niñas en Finlandia; usó una IA para esbozar su plan.

El segundo pasó antes, en enero de 2025. El atacante Matthew Livelsberger, de 37 años en aquel momento, hizo estallar su Tesla Cybertruck frente al hotel Trump International de Las Vegas. Usó ChatGPT para obtener ayuda sobre explosivos caseros.

Esta idea se puso tristemente de manifiesto el pasado mes de febrero, cuando se reportó que el atacante del tiroteo en Tumbler Ridge utilizó ChatGPT para planear su atentado, lo que llevó a que la familia de una víctima demandase a OpenAI.

Meta AI en WhatsApp

Meta AI en WhatsApp El Androide Libre

Además, OpenAI reveló haber considerado alertar a las autoridades policiales canadienses sobre las actividades de esta usuaria meses antes de que se perpetrara dicho tiroteo, sin hacerlo realmente. Esta falta de iniciativa fue lo que motivó la demanda judicial canadiense.

Los de Sam Altman también han estado en el ojo del huracán por varios casos relacionados con su chatbot. En verano del 2025, los padres de Adam Raine, un joven de 16 años que se quitó la vida, demandaron a la firma de IA.

Alegaron que ChatGPT alentó, acompañó e instruyó a su hijo en el camino del suicidio. OpenAI se defendió asegurando que el adolescente hizo un mal uso, un "uso no autorizado" de ChatGPT citando sus propias políticas de uso.