Le conflit entre Anthropic, l’un des principaux développeurs d’IA, et le ministère de la Défense (DoD) s’est intensifié, le DoD désignant Anthropic comme un « risque de chaîne d’approvisionnement » pour la sécurité nationale. Le PDG d’Anthropic, Dario Amodei, a immédiatement répondu en annonçant que l’entreprise contesterait légalement cette désignation, arguant qu’elle manque de base légale et n’a pas d’impact sur la plupart de ses clients.
Le cœur du différend : le contrôle du déploiement de l’IA
L’impasse est centrée sur le refus d’Anthropic de permettre que sa technologie d’IA soit utilisée à des fins de surveillance nationale de masse ou dans des systèmes d’armes entièrement autonomes. La semaine dernière, Anthropic a obtenu un contrat fédéral de 200 millions de dollars, mais a insisté sur la garantie que son IA ne serait pas utilisée comme arme sans surveillance humaine. Le gouvernement américain a rejeté ces conditions, menaçant d’une désignation de risque pour la chaîne d’approvisionnement, qui a ensuite été appliquée.
Cette action met effectivement Anthropic sur une liste noire des contrats fédéraux, car le décret de l’ancien président Trump oblige désormais toutes les agences à cesser d’utiliser son IA.
L’accord d’OpenAI : un précédent et un point de confusion
La décision du DoD contre Anthropic fait suite à un accord similaire avec OpenAI, qui a également suscité des critiques. Même le PDG d’OpenAI, Sam Altman, a publiquement qualifié l’accord de son entreprise avec le gouvernement américain de « déroutant », soulignant la nature complexe et opaque de ces accords.
Le PDG d’Anthropic, Amodei, a reconnu l’accord et a déclaré que la société coopérerait avec une période de transition pour le gouvernement. Amodei s’est également excusé pour la fuite d’une note interne détaillant le différend.
Implications : éthique de l’IA et sécurité nationale
Cette affaire met en évidence la tension croissante entre le développement éthique de l’IA et les intérêts de sécurité nationale. La position d’Anthropic souligne un débat critique sur les limites du déploiement de l’IA, en particulier dans les applications militaires. La volonté de l’entreprise de risquer de perdre un contrat majeur plutôt que de compromettre ses principes soulève des questions sur la manière dont le développement futur de l’IA sera régi.
La désignation du DoD suggère une volonté de donner la priorité aux objectifs de sécurité nationale plutôt qu’aux préférences des fournisseurs, créant ainsi un précédent qui pourrait influencer d’autres sociétés d’IA.
« Anthropic fournira nos modèles au ministère de la Guerre et à la communauté de la sécurité nationale… aussi longtemps que nécessaire », a déclaré Amodei, signalant un compromis pragmatique malgré la contestation judiciaire en cours.
Le différend est loin d’être terminé et la bataille juridique risque de se dérouler dans les mois à venir. Cette affaire créera un précédent important dans la manière dont les entreprises d’IA gèrent leurs relations avec les gouvernements exigeant l’accès aux technologies de pointe.
