El ejército de EE. UU. intensifica la disputa por la IA, pero las principales empresas tecnológicas seguirán apoyando a Claude de Anthropic

15

El Departamento de Defensa de EE. UU. (DoD) ha designado oficialmente a la startup de inteligencia artificial Anthropic como un riesgo para la cadena de suministro, después de que la compañía se negara a otorgar acceso sin restricciones a su modelo Claude para aplicaciones militares. A pesar de esta medida sin precedentes, normalmente reservada para adversarios extranjeros, las principales empresas de tecnología Microsoft, Google y Amazon seguirán poniendo a Claude a disposición de clientes no relacionados con el sector de defensa.

Por qué esto es importante

Esta escalada señala una tensión creciente entre el Departamento de Defensa y los desarrolladores de IA sobre los límites éticos y el control de la tecnología avanzada. El Pentágono buscó acceso a Claude para aplicaciones que incluían vigilancia masiva y armas totalmente autónomas, pero Anthropic se negó, alegando preocupaciones de seguridad. La respuesta del Departamento de Defensa (una designación de cadena de suministro) impide efectivamente que sus propias agencias utilicen Claude y obliga a los contratistas a certificar que no lo hacen.

Esta situación pone de relieve un debate crítico: ¿Deberían los desarrolladores de IA estar obligados a servir intereses militares, incluso si entra en conflicto con sus principios éticos? La medida es inusual porque Anthropic es una empresa estadounidense, no un adversario extranjero, lo que plantea dudas sobre hasta qué punto llegará el Departamento de Defensa para controlar el acceso a la IA de vanguardia.

Los gigantes tecnológicos se mantienen firmes

Microsoft, Google y Amazon han confirmado que no cortarán el acceso a Claude a clientes no relacionados con el sector de defensa. Microsoft dijo que sus abogados revisaron la designación y concluyeron que la versión puede permanecer disponible a través de plataformas como Microsoft 365, GitHub y AI Foundry. Google confirmó lo mismo para sus productos de nube e inteligencia artificial, y CNBC informó que los clientes de AWS también conservarán el acceso para uso no militar.

Estas empresas caminan sobre la cuerda floja: cumplen contratos gubernamentales, pero también quieren evitar alienar a los clientes y sofocar la innovación cumpliendo plenamente con las demandas del Departamento de Defensa. El hecho de que decidieran apoyar a Anthropic sugiere una renuencia a ceder el control total de la IA a los militares.

La respuesta de Anthropic

El director ejecutivo de Anthropic, Dario Amodei, ha prometido luchar contra la designación en los tribunales, argumentando que se aplica sólo a los contratos directos con el Departamento de Defensa, no a todo uso de Claude por parte de clientes que tienen dichos contratos. La compañía insiste en que incluso para los contratistas del Departamento de Defensa, la restricción no se aplica si su uso de Claude no está relacionado con proyectos militares.

“La designación de riesgo de la cadena de suministro no limita (ni puede) limitar los usos de Claude o las relaciones comerciales con Anthropic si no están relacionadas con sus contratos específicos del Departamento de Guerra”.

Esta batalla legal probablemente sentará un precedente para futuros conflictos entre el gobierno de EE. UU. y las empresas de inteligencia artificial por el acceso a tecnologías críticas.

En última instancia, la medida del Departamento de Defensa puede resultar contraproducente al alejar aún más la innovación de la IA de su control. El hecho de que las principales empresas tecnológicas desafíen abiertamente la designación muestra que el enfoque de línea dura del ejército no está exento de resistencia.