Fotomontaje con el logo de Anthropic y el rostro de Jeff Dean.

Fotomontaje con el logo de Anthropic y el rostro de Jeff Dean. Manuel Fernández Omicrono

Tecnología

Empleados de Google y OpenAI apoyan judicialmente a Anthropic en su batalla legal contra el Pentágono

Trabajadores de la competencia han presentado un texto amicus curiae en el que exponen algunos de sus argumentos para apoyar a Dario Amodei.

Más información: Estados Unidos está usando la inteligencia artificial de Claude en los ataques a Irán pese a haber sido vetada por Trump

Publicada
Actualizada

El culebrón suscitado por el veto a Anthropic por parte del Pentágono no parece acabar. El pasado lunes, la firma de Dario Amodei acabó presentando una demanda contra el Departamento de Defensa por haber designado a Anthropic como un riesgo para la cadena de suministro.

Ahora, la compañía ha recibido apoyo directamente desde la competencia. Tal y como informa The Verge, un grupo de empleados de alto calado tanto en OpenAI como en Google ha presentado un escrito amicus curiae en apoyo a la demanda de Anthropic.

En este texto, que tiene entre sus firmantes a Jeff Dean, responsable de Gemini y director científico de Google, expresan algunos de los puntos que Dario Amodei ya recalcó en su plantón al Pentágono: preocupaciones en torno al uso de la IA en armas autónomas y vigilancia masiva.

Anthropic recibe ayuda

¿Qué es el amicus curiae? Esta es una figura procesal desarrollada sobre todo en las esferas de derecho ubicadas en países anglosajones, y que puede variar dependiendo de la jurisdicción en la que se aplique.

En la jurisdicción constitucional española, según el Centro de Estudios Políticos y Constitucionales, esta figura permite que "terceros, ajenos a un debate en el ámbito constitucional, puedan solicitar su ingreso en el procedimiento con el objetivo de contribuir con nuevos elementos que puedan ser útiles a la resolución del caso".

Jeff Dean, responsable de Google.

Jeff Dean, responsable de Google. Cmichel67 en Wikipedia Omicrono

En un plano más general, el texto presentado por los empleados de Google y OpenAI se postula como un documento legal que pueden presentar personas u organizaciones para ofrecer información o conocimientos especializados en un procedimiento judicial.

Es decir, que los empleados desean ofrecer argumentos o detalles importantes en apoyo a Anthropic de cara a la futura resolución judicial de la demanda. Los textos de este tipo pueden tener todo tipo de aplicaciones.

Por ejemplo, pueden servir para aportar análisis legales adicionales, datos o investigaciones relevantes, defender intereses públicos o colectivos o explicar los impactos sociales derivados de casos muy importantes.

El texto en cuestión presentado por estos empleados en su capacidad personal justifica en primer lugar la posición de los trabajadores. Hacen labores de investigación en laboratorios punteros de inteligencia artificial.

Fotomontaje con los logos de OpenAI y Anthropic.

Fotomontaje con los logos de OpenAI y Anthropic. Manuel Fernández Omicrono

Pese a que son básicamente competencia de Anthropic, comparten la convicción de que los sistemas de IA actuales no son ni lo suficientemente seguros ni lo suficientemente fiables para que sean usados de forma indiscriminada en ciertos campos militares.

Básicamente, creen que estos sistemas no son aptos para su aplicación en métodos de vigilancia masiva en tiempo real de toda la población o en la selección autónoma de objetivos letales sin supervisión humana.

Dichas aplicaciones, dice el documento, presentan graves y profundos riesgos para la democracia y para los derechos humanos. En el primer caso, por el efecto amedrentador de la IA sobre la participación cívica.

Y en el segundo, por la incapacidad de la IA de distinguir de forma robusta entre combatientes y civiles y de ofrecer explicaciones o asumir responsabilidades a consecuencia de sus 'actos'. Se desarrollan así hasta tres argumentos centrales.

El Pentágono, en el centro de la controversia tras solicitar mayor acceso a los sistemas de inteligencia artificial de Anthropic.

El Pentágono, en el centro de la controversia tras solicitar mayor acceso a los sistemas de inteligencia artificial de Anthropic.

El primero aclara que la designación del Departamento de Defensa de Anthropic como un riesgo para la cadena de suministro es un uso impropio y retaliatorio de los poderes de seguridad nacional, que se suelen usar para proveedores controlados por adversarios y potencias extranjeras.

Creen que su uso contra una empresa estadounidense que simplemente desea mantener ciertas salvaguardas ante la peligrosidad de una tecnología como es la IA daña el interés público y la competitividad científica de Estados Unidos.

El segundo establece que las líneas rojas de Anthropic, que pasaban por impedir la vigilancia masiva o el desarrollo de armas letales autónomas, reflejan preocupaciones técnicas ampliamente compartidas en la comunidad de investigación.

Por último, detallan no solo algunos de los riesgos que suponen la inclusión de IA en sistemas de vigilancia masiva, sino que exigen establecer salvaguardas técnicas y normativas. Piden además no castigar a las empresas que intentan imponer dichos límites.

Dario Amodei, CEO de Anthropic, durante la Cumbre de Impacto de la IA en India

Dario Amodei, CEO de Anthropic, durante la Cumbre de Impacto de la IA en India Reuters El Androide Libre

El texto pide de forma clara al tribunal que conceda a Anthropic la medida cautelar solicitada por la empresa que pedía al tribunal detener la designación de riesgo de cadena de suministro.

Su argumento: permitir esta represalia tendría un efecto disuasorio evidente en el debate abierto y responsable dentro del sector de la inteligencia artificial referente a los riesgos inherentes de sus propios sistemas.

Los empleados firmantes comparten la clara convicción de que los sistemas actuales de IA presentan importantes riesgos en estos campos, justificando así la implementación de estas salvaguardas.

Advierten que, en caso de que el tribunal no falle a favor del texto, se consolidaría un precedente peligroso que permitiría al gobierno castigar a las empresas que intentasen imponer límites responsables al uso de la IA en contextos de alto riesgo.