Desafíos antrópicos La designación de “riesgo para la cadena de suministro” del ejército estadounidense

13

El conflicto entre Anthropic, un desarrollador líder de inteligencia artificial, y el Departamento de Defensa (DoD) se ha intensificado, y el Departamento de Defensa designó a Anthropic como un “riesgo de la cadena de suministro” para la seguridad nacional. El director ejecutivo de Anthropic, Dario Amodei, respondió de inmediato anunciando que la compañía impugnará legalmente la designación, argumentando que carece de base legal y no afecta a la mayoría de sus clientes.

El núcleo de la disputa: el control sobre el despliegue de la IA

El enfrentamiento se centra en la negativa de Anthropic a permitir que su tecnología de inteligencia artificial se utilice para vigilancia doméstica masiva o en sistemas de armas totalmente autónomos. La semana pasada, Anthropic consiguió un contrato federal de 200 millones de dólares, pero insistió en garantías de que su IA no sería utilizada como arma sin supervisión humana. El gobierno de Estados Unidos rechazó estos términos, amenazando con una designación de riesgo para la cadena de suministro, que posteriormente se aplicó.

Esta acción efectivamente incluye a Anthropic en la lista negra de los contratos federales, ya que la orden ejecutiva del expresidente Trump ahora obliga a todas las agencias a dejar de usar su IA.

El acuerdo de OpenAI: un precedente y un punto de confusión

La medida del Departamento de Defensa contra Anthropic sigue a un acuerdo similar con OpenAI, que también ha generado críticas. Incluso el director ejecutivo de OpenAI, Sam Altman, describió públicamente el acuerdo de su empresa con el gobierno de EE. UU. como “confuso”, destacando la naturaleza compleja y opaca de estos acuerdos.

El director general de Anthropic, Amodei, reconoció el acuerdo y dijo que la empresa cooperará con un período de transición para el gobierno. Amodei también se disculpó por la filtración de un memorando interno que detalla la disputa.

Implicaciones: ética de la IA frente a seguridad nacional

Este caso pone de relieve la creciente tensión entre el desarrollo ético de la IA y los intereses de seguridad nacional. La postura de Anthropic subraya un debate crítico sobre los límites del despliegue de la IA, particularmente en aplicaciones militares. La voluntad de la empresa de arriesgarse a perder un contrato importante en lugar de comprometer sus principios plantea interrogantes sobre cómo se regirá el futuro desarrollo de la IA.

La designación del Departamento de Defensa sugiere una voluntad de priorizar los objetivos de seguridad nacional sobre las preferencias de los proveedores, sentando un precedente que podría influir en otras empresas de IA.

“Anthropic proporcionará nuestros modelos al Departamento de Guerra y a la comunidad de seguridad nacional… durante el tiempo que sea necesario”, afirmó Amodei, señalando un compromiso pragmático a pesar del desafío legal en curso.

La disputa está lejos de terminar y es probable que la batalla legal se desarrolle en los próximos meses. Este caso sentará un precedente importante sobre cómo las empresas de IA navegan en su relación con los gobiernos que exigen acceso a tecnología avanzada.