De conformidad con la información publicada por The Associated Press, el pasado 9 de marzo, Anthropic, una de las grandes plataformas de inteligencia artificial generativa con su modelo Claude, ha demandado a la administración norteamericana tras haber declarado ésta que aquélla es una entidad que supone un “riesgo para la cadena de suministro”.
Estas dos demandas no son solo un litigio corporativo más sino que son el primer gran asalto de una guerra que definirá quién tiene el control último sobre la "conciencia" de los algoritmos: los ingenieros que los crean o los generales que los despliegan.
El equilibrio entre la ética y el desarrollo tecnológico militar ha saltado por los aires. El conflicto nace de una negativa que ya es historia de la tecnología: Anthropic, nacida bajo el mantra de la IA constitucional y la seguridad proactiva, se negó a eliminar las salvaguardas de Claude que impiden usos que contravienen sus principios fundacionales: principalmente la vigilancia masiva y sistemas de armas letales autónomos.
La respuesta de la administración estadounidense ha sido tan contundente como cuestionable: aplicar a una empresa de Delaware la misma etiqueta de "riesgo para la cadena de suministro" que se reserva para grandes empresas de potencias extranjeras adversarias.
El núcleo jurídico de la demanda es audaz. Anthropic no apela solo a la libertad de mercado – que ya debería ser suficiente -, sino a la Primera Enmienda relacionada con la libertad de expresión.
Sostienen que si el código es una forma de expresión y sus salvaguardas éticas son el reflejo de los valores de sus creadores, el Estado no puede obligar a una empresa a "hablar" (o programar) de otra manera eliminando esas salvaguardas.
Es, de facto, un intento de expropiación ética de la tecnología bajo el pretexto de la seguridad nacional, y la represalia del gobierno, se parece más a una extorsión vulgar que a una medida adoptada por un gobierno democrático moderno.
Al margen de lo anterior, lo cierto es que mientras Anthropic se atrinchera en los tribunales en defensa de una IA responsable basada en la ética, OpenAI ha optado por estrechar lazos con el Pentágono reflejando no tener la misma vara de medir ética que Anthropic no oponiéndose a las imposiciones del gobierno obteniendo por ello un beneficio estratégico y económico evidente.
Esta bifurcación crea un precedente peligroso: un mercado donde la ventaja competitiva no la da la capacidad de cómputo, sino la flexibilidad moral ante las exigencias de Defensa. Si el Gobierno gana, habremos entrado en una era de estatalismo tecnológico obligatorio.
Estamos ante el fin de la neutralidad. Lo que Anthropic defiende es su derecho a ser una empresa con una arquitectura moral propia. El resultado de este juicio dictará si el futuro de la inteligencia artificial será un espejo de nuestros valores o un arma más en el arsenal de las superpotencias.
Pero no lo olvidemos… Si el desarrollo tecnológico queda limitado por la ética en occidente, ¿qué pasará con aquellos países que no tienen problemas éticos y que son libres para impulsar el desarrollo de la tecnología? ¿Será la ética la que termine por acabar con las democracias occidentales por impedir el mismo nivel de desarrollo tecnológico que otras potencias libres de limitaciones?