La inteligencia artificial generativa se ha instalado en el centro de nuestras vidas con una velocidad que ni gobiernos ni ciudadanos parecen capaces de seguir. Se nos presenta como una herramienta inevitable. Y se nos dice: aumenta la productividad, automatiza tareas y promete resolver problemas complejos.

Pero ese relato convive con una realidad menos cómoda y cada día más evidente: destrucción potencial de empleo, apropiación masiva de datos y un poder cada vez más concentrado en unas pocas empresas tecnológicas. Nada de esto puede negarse.

Ante este escenario, no sorprende que esté emergiendo una forma de resistencia. Lo que sí resulta más inquietante es su naturaleza: el llamado envenenamiento de datos. La idea es tan simple como introducir información falsa, sesgada o inútil en los datos que alimentan los modelos de IA para degradar su funcionamiento.

Algunos presentan esta venganza tóxica como una forma de sabotaje legítimo, incluso como una versión contemporánea de la desobediencia civil.

El argumento tiene cierto atractivo. A lo largo de la historia, los ciudadanos han recurrido a la interrupción y al boicot para enfrentarse a sistemas injustos. Cuando las reglas del juego están diseñadas para beneficiar a unos pocos, romperlas puede parecer no solo comprensible, sino necesario. En un mundo gobernado por algoritmos, alterar los datos podría verse como una manera de atacar el corazón mismo del sistema.

Pero aquí es donde la comparación empieza a resquebrajarse.

El sabotaje clásico —en fábricas, en transportes, en huelgas— tenía objetivos relativamente claros y responsables identificables. El daño, aunque real, solía dirigirse hacia quienes ejercían el poder. El envenenamiento de datos, en cambio, opera en la sombra y sin precisión. No distingue entre grandes corporaciones y usuarios comunes. No castiga únicamente a quienes diseñan los sistemas, sino también a quienes dependen de ellos.

Y ese es el problema central: esta forma de “resistencia” es profundamente indiscriminada.

Cuando un modelo de inteligencia artificial se degrada, no es el consejo de administración de una tecnológica quien sufre las consecuencias inmediatas. Son los estudiantes que lo utilizan para aprender, los trabajadores que lo integran en su día a día o los ciudadanos que buscan información.

En contextos más sensibles —salud, educación, administración pública— los efectos pueden ser aún más graves. Introducir ruido deliberadamente en estos sistemas no es un gesto simbólico: es una intervención con consecuencias reales y potencialmente dañinas.

Además, hay algo intelectualmente cómodo en presentar el envenenamiento de datos como una forma de desobediencia civil. La tradición de la desobediencia, lejos de ser un cajón de sastre, exige condiciones exigentes: visibilidad, responsabilidad y una orientación clara hacia la corrección de una injusticia concreta. No se trata simplemente de “hacer daño” al sistema, sino de hacerlo de manera que revele su injusticia y movilice a la sociedad.

El envenenamiento de datos no cumple con esos criterios. Es anónimo, difuso y, en muchos casos, difícil de distinguir de la simple desinformación. Más que un acto político reconocible, se parece peligrosamente a aquello que dice combatir: la degradación del espacio informativo.

Esto no significa que las críticas a la inteligencia artificial sean infundadas. Al contrario. Existen motivos más que suficientes para cuestionar cómo se está desarrollando esta tecnología: el uso opaco de datos personales, la vulneración de derechos de autor, la precarización de sectores creativos o la falta de mecanismos democráticos de control. Ignorar estas preocupaciones sería irresponsable.

Pero precisamente por eso, la respuesta importa.

El envenenamiento de datos ofrece una ilusión de control. Hace creer a los individuos que pueden influir en sistemas masivos con acciones dispersas y, a menudo, ineficaces. En la práctica, las grandes empresas cuentan con recursos para filtrar, limpiar y mitigar estos ataques. Quienes no tienen esa capacidad son los usuarios finales, que terminan expuestos a sistemas menos fiables y más impredecibles.

Hay, además, una paradoja difícil de ignorar: en un momento en que la preocupación por la desinformación es central en el debate público, proponer la introducción deliberada de información falsa como estrategia política roza la contradicción. Combatir un problema agravándolo rara vez ha sido una estrategia sensata.

Nada de esto implica resignación. La inteligencia artificial necesita límites, regulación y supervisión democrática. Pero esas transformaciones no vendrán de la erosión silenciosa de los sistemas, sino de la presión pública, la acción política y la exigencia de transparencia. Si la tecnología afecta a derechos fundamentales, la respuesta debe situarse en el mismo nivel: el de las instituciones, las leyes y el debate colectivo.

Envenenar los datos puede parecer un acto de rebeldía. En realidad, es más bien una forma de rendición: la renuncia a disputar el poder donde realmente se ejerce. Y en ese terreno, el de la política y la responsabilidad pública, es donde se decidirá si la inteligencia artificial acaba siendo una herramienta al servicio de la sociedad o un instrumento que profundiza sus desigualdades.