El Pentágono, en el centro de la controversia tras solicitar mayor acceso a los sistemas de inteligencia artificial de Anthropic.
Trump vs Anthropic: guerra por el control absoluto sobre la inteligencia artificial
Anthropic rechazó otorgar al gobierno de EE.UU. el control absoluto sobre Claude, desatando una confrontación inédita.
Más información: Revés judicial a los aranceles de Trump y respiro para el sector tecnológico de Silicon Valley
La inteligencia artificial se ha convertido en una herramienta estratégica clave para cualquier gobierno dispuesto a explotar al máximo el potencial de esta tecnología emergente.
Anthropic, la empresa responsable del modelo Claude, mantenía hasta hace poco una relación cercana con la administración Trump, en un contexto de creciente colaboración entre Silicon Valley y Washington.
Claude habría sido empleado por el Pentágono en operaciones de análisis durante la captura del expresidente de Venezuela, Nicolás Maduro, el pasado 3 de enero, según fuentes cercanas al entorno gubernamental.
Desde entonces, el Departamento de Guerra de Estados Unidos (rebautizado así por el nuevo gobierno de Trump el año pasado y anteriormente conocido como Departamento de Defensa) ha intensificado la presión sobre la compañía para obtener control total operativo sobre el modelo.
Sin embargo, el CEO de Anthropic, Dario Amodei, anunció públicamente que no concedería acceso completo al Pentágono, pues este aspiraba a utilizar la herramienta para desarrollar un sistema de vigilancia masiva nacional dirigido a ciudadanos estadounidenses.
Asimismo, el gobierno habría manifestado su interés en emplear la IA para el desarrollo de sistemas de armas automatizadas, en el marco de un contrato que podría haber aportado aproximadamente 200 millones de dólares a la compañía.
“El uso de IA para sistemas de vigilancia masiva supone un riesgo serio para nuestras libertades fundamentales. No es compatible con los valores democráticos”, defendía el CEO de Anthropic en un comunicado difundido en las redes sociales de la empresa el pasado jueves. “Los sistemas actuales no son del todo seguros para su aplicación en armas automatizadas. No podemos ofrecer acceso a un producto que ponga a soldados estadounidenses y civiles en riesgo”, añadió en el mismo mensaje.
De este modo, Anthropic sostiene que sus modelos aún presentan márgenes de error que podrían tener consecuencias graves en contextos militares.
“El Departamento de Guerra nos ha amenazado con retirar a Claude de sus sistemas si mantenemos estas dos excepciones”, añadió Amodei.
Horas más tarde, Trump confirmó por redes sociales la ruptura con la empresa tecnológica.
“Los extremistas de izquierda de Anthropic han cometido un error desastroso al intentar presionar al Departamento de Guerra para obligarlo a obedecer sus términos de servicio en vez de nuestra Constitución”, declaró el presidente en un mensaje que intensificó la dimensión política del conflicto.
A continuación, el líder republicano se dirigió a todas las agencias federales y ordenó el cese inmediato del uso de la tecnología de Anthropic en el gobierno.
De esta manera, se inicia un período de seis meses durante el cual las agencias deberán eliminar gradualmente el uso de Claude. Por el momento, no se ha anunciado un reemplazo oficial.
El Pentágono respondió señalando que “no necesita utilizar inteligencia artificial para sistemas de vigilancia interna ni para armamento autónomo”, pero subrayó que requiere que las empresas del sector permitan que sus modelos sean empleados “para todos los fines legales”.
Anteriormente, la administración Trump había amenazado con invocar la Ley de Defensa de la Producción, una legislación de la época de la Guerra de Corea que permite al gobierno obligar a las empresas privadas a priorizar contratos vinculados a la seguridad nacional.
Además, se habría advertido a Anthropic de clasificarla como un posible “riesgo para la cadena de suministro”, lo que podría derivar en su exclusión de contratos gubernamentales estratégicos.
Por el momento, y según Amodei, el impacto financiero de la controversia ha sido paradójicamente favorable para la compañía, cuya valoración e ingresos habrían aumentado tras su postura pública.
Amodei aseguró que no cederá ante las presiones políticas y que la misión de la empresa sigue centrada en desarrollar sistemas seguros y alineados con los principios democráticos.
“Creo profundamente en la importancia existencial de utilizar la inteligencia artificial para defender a Estados Unidos y a otras democracias y para derrotar a nuestros adversarios autocráticos”, afirmó Amodei en un comunicado posterior. “En cualquier caso, estas amenazas no cambian nuestra postura: no podemos, en conciencia, acceder a su solicitud”, reiteró.
Por su parte, Sam Altman, CEO de la rival OpenAI, se posicionó a favor de Anthropic. En una entrevista con la cadena CNBC, Altman argumentó que, pese a sus diferencias estratégicas, “confía en la compañía y considera que sus directivos se toman en serio la cuestión de la seguridad”, en un momento de especial sensibilidad para el sector.
En un año y un mes de la segunda administración de Trump, periodo en el que gran parte de Silicon Valley ha accedido a múltiples peticiones gubernamentales (incluido el intercambio de datos relacionados con activistas), la postura firme de Anthropic frente al Departamento de Guerra se convierte en un precedente relevante.
Esta disputa inédita entre el sector público y el privado pone de relieve la creciente importancia de la privacidad de los usuarios, en un momento en el que la protección de datos se ha convertido en una prioridad.