L’armée américaine intensifie la querelle sur l’IA, mais les grandes entreprises technologiques continueront à soutenir Claude d’Anthropic

16

Le ministère américain de la Défense (DoD) a officiellement désigné la startup d’IA Anthropic comme un risque pour la chaîne d’approvisionnement, après que l’entreprise a refusé d’accorder un accès illimité à son modèle Claude pour des applications militaires. Malgré cette décision sans précédent – généralement réservée aux adversaires étrangers – les grandes entreprises technologiques Microsoft, Google et Amazon continueront de mettre Claude à la disposition de clients non liés à la défense.

Pourquoi c’est important

Cette escalade témoigne d’une tension croissante entre le DoD et les développeurs d’IA sur les limites éthiques et le contrôle des technologies avancées. Le Pentagone a cherché à accéder à Claude pour des applications telles que la surveillance de masse et les armes entièrement autonomes, mais Anthropic a refusé, invoquant des problèmes de sécurité. La réponse du DoD – une désignation de chaîne d’approvisionnement – ​​interdit effectivement à ses propres agences d’utiliser Claude et oblige les entrepreneurs à certifier qu’ils ne le font pas.

Cette situation met en lumière un débat critique : Les développeurs d’IA devraient-ils être obligés de servir des intérêts militaires, même si cela entre en conflit avec leurs principes éthiques ? Cette décision est inhabituelle car Anthropic est une entreprise américaine et non un adversaire étranger, ce qui soulève des questions sur jusqu’où le DoD ira pour contrôler l’accès à l’IA de pointe.

Les géants de la technologie tiennent bon

Microsoft, Google et Amazon ont tous confirmé qu’ils ne couperaient pas l’accès à Claude aux clients non liés à la défense. Microsoft a déclaré que ses avocats avaient examiné la désignation et conclu que le modèle pouvait rester disponible via des plateformes telles que Microsoft 365, GitHub et sa fonderie AI. Google a confirmé la même chose pour ses produits cloud et IA, et CNBC a indiqué que les clients AWS conserveraient également l’accès pour une utilisation non militaire.

Ces entreprises marchent sur la corde raide : elles servent les contrats gouvernementaux, mais veulent également éviter de s’aliéner les clients et d’étouffer l’innovation en se conformant pleinement aux exigences du DoD. Le fait qu’ils aient choisi de soutenir Anthropic suggère une réticence à céder le contrôle total de l’IA aux militaires.

Réponse d’Anthropic

Le PDG d’Anthropic, Dario Amodei, s’est engagé à combattre cette désignation devant les tribunaux, arguant qu’elle ne s’applique qu’aux contrats directs avec le DoD, et non à toute utilisation de Claude par les clients ayant de tels contrats. La société insiste sur le fait que même pour les sous-traitants du DoD, la restriction ne s’applique pas si leur utilisation de Claude n’est pas liée à des projets militaires.

“La désignation de risque de chaîne d’approvisionnement ne limite pas (et ne peut pas) limiter l’utilisation de Claude ou les relations commerciales avec Anthropic si celles-ci ne sont pas liées à leurs contrats spécifiques avec le ministère de la Guerre.”

Cette bataille juridique créera probablement un précédent pour de futurs conflits entre le gouvernement américain et les sociétés d’IA sur l’accès aux technologies critiques.

En fin de compte, la décision du DoD pourrait se retourner contre lui en éloignant encore davantage l’innovation en matière d’IA de son contrôle. Le fait que de grandes entreprises technologiques défient ouvertement cette désignation montre que l’approche dure de l’armée n’est pas sans résistance.