Trump ordonne au Pentagone d’éliminer progressivement les politiques anthropiques en raison des politiques « éveillées »

7

Le président Donald Trump a ordonné au ministère de la Défense de cesser d’utiliser la technologie de la société d’IA Anthropic d’ici six mois, augmentant ainsi les tensions sur l’utilisation de l’intelligence artificielle dans le cadre de la sécurité nationale. La décision, annoncée vendredi via Truth Social, découle de l’accusation de Trump selon laquelle Anthropic est dirigé par des « boulots de cinglés de gauche » tentant d’imposer des restrictions sur les opérations militaires.

Le principal différend porte sur le refus d’Anthropic d’autoriser le Pentagone à accéder sans restriction à son modèle d’IA, Claude. Le PDG d’Anthropic, Dario Amodei, a déclaré publiquement que l’entreprise ne permettrait pas la surveillance de masse des citoyens américains ni le développement de systèmes d’armes autonomes, une position ancrée dans les préoccupations en matière de sécurité de l’IA qui ont conduit ses fondateurs à quitter OpenAI. Le gouvernement aurait initialement accepté ces conditions, mais les termes du contrat se sont révélés insuffisants pour le confort d’Anthropic.

Pourquoi c’est important : Cette confrontation met en évidence un conflit croissant entre les développeurs privés d’IA qui donnent la priorité aux garanties éthiques et un gouvernement qui recherche un avantage technologique sans entrave. L’exigence du Pentagone d’un contrôle total sur les outils d’IA se heurte à l’approche prudente d’Anthropic, reflétant un débat plus large sur le rôle de l’IA dans la guerre et la sécurité intérieure. Ce désaccord est susceptible de s’intensifier à mesure que les capacités de l’IA se développent, obligeant à des choix difficiles en matière de transparence, de responsabilité et de limites des applications militaires.

La volonté d’Anthropic de restreindre l’utilisation de sa technologie est rare dans l’industrie. Des concurrents comme OpenAI et Grok d’Elon Musk se sont montrés beaucoup plus conformes aux exigences du gouvernement. Les responsables de la CIA considéreraient Grok comme inférieur au modèle d’Anthropic, mais l’administration pourrait toujours rechercher d’autres partenariats pour éviter les restrictions d’Anthropic. Le gouvernement n’exclut pas d’invoquer la loi sur la production de défense pour contraindre Anthropic à s’y conformer.

Réaction de l’industrie : La prise en charge d’Anthropic a rapidement émergé au sein du monde de la technologie. Le PDG d’OpenAI, Sam Altman, a publiquement exprimé son soutien, tandis que des dizaines d’employés de Google et d’OpenAI ont signé des lettres approuvant la position d’Amodei. Même si Anthropic a récemment assoupli ses politiques de sécurité pour rester compétitif, l’entreprise conserve une base éthique plus solide que celle de nombreux concurrents.

« Certaines utilisations [de l’IA] dépassent tout simplement les limites de ce que la technologie actuelle peut faire de manière sûre et fiable », a déclaré Dario Amodei, PDG d’Anthropic, dans un récent article de blog.

La situation est fluide. On ne sait toujours pas si la directive de Trump entraînera des renégociations ou une rupture pure et simple des liens. La prochaine mesure du gouvernement pourrait remodeler le paysage du développement de l’IA, indiquant si les préoccupations de sécurité nationale l’emporteront sur les considérations éthiques dans un secteur technologique en évolution rapide.

En fin de compte, ce conflit met en évidence une tension fondamentale : les entreprises privées peuvent-elles dicter la manière dont les gouvernements utilisent de nouvelles technologies puissantes, ou les impératifs militaires auront-ils la priorité ? Le résultat créera probablement un précédent pour les futurs partenariats en matière d’IA entre la Silicon Valley et Washington.