Het Amerikaanse ministerie van Defensie (DoD) heeft AI-startup Anthropic officieel aangemerkt als een risico voor de toeleveringsketen, nadat het bedrijf weigerde onbeperkte toegang te verlenen tot zijn Claude-model voor militaire toepassingen. Ondanks deze ongekende stap – doorgaans voorbehouden aan buitenlandse tegenstanders – zullen de grote technologiebedrijven Microsoft, Google en Amazon doorgaan met het beschikbaar stellen van Claude aan niet-defensieklanten.
Waarom dit belangrijk is
Deze escalatie duidt op een groeiende spanning tussen het Ministerie van Defensie en AI-ontwikkelaars over ethische grenzen en controle over geavanceerde technologie. Het Pentagon zocht toegang tot Claude voor toepassingen als massasurveillance en volledig autonome wapens, maar Anthropic weigerde vanwege bezorgdheid over de veiligheid. De reactie van het Ministerie van Defensie – een aanduiding voor de toeleveringsketen – verbiedt in feite zijn eigen agentschappen om Claude te gebruiken en dwingt aannemers te verklaren dat zij dat niet doen.
Deze situatie benadrukt een kritisch debat: Moeten AI-ontwikkelaars verplicht worden militaire belangen te dienen, zelfs als dit in strijd is met hun ethische principes? Deze stap is ongebruikelijk omdat Anthropic een Amerikaans bedrijf is en geen buitenlandse tegenstander. Dit roept vragen op over hoe ver het Ministerie van Defensie zal gaan om de toegang tot geavanceerde AI te controleren.
Techgiganten blijven standvastig
Microsoft, Google en Amazon hebben allemaal bevestigd dat ze de toegang tot Claude niet zullen afsluiten voor niet-defensieklanten. Microsoft verklaarde dat zijn advocaten de benaming hadden beoordeeld en concludeerden dat het model beschikbaar kan blijven via platforms als Microsoft 365, GitHub en zijn AI Foundry. Google bevestigde hetzelfde voor zijn cloud- en AI-producten, en CNBC meldde dat AWS-klanten ook toegang zullen behouden voor niet-militair gebruik.
Deze bedrijven lopen op een koord: ze dienen overheidscontracten uit, maar willen ook voorkomen dat ze klanten van zich vervreemden en innovatie verstikken door volledig te voldoen aan de eisen van het Ministerie van Defensie. Het feit dat ze ervoor kozen om Anthropic te steunen duidt op een onwil om de volledige controle over AI aan het leger af te staan.
Reactie van Anthropic
CEO van Anthropic, Dario Amodei, heeft beloofd de aanwijzing voor de rechtbank te zullen aanvechten, met het argument dat deze alleen van toepassing is op directe contracten met het Ministerie van Defensie, en niet op al het gebruik van Claude door klanten die dergelijke contracten hebben. Het bedrijf benadrukt dat zelfs voor contractanten van het Ministerie van Defensie de beperking niet van toepassing is als hun gebruik van Claude geen verband houdt met militaire projecten.
“De aanduiding van het supply chain-risico beperkt (en kan) het gebruik van Claude of zakelijke relaties met Anthropic niet beperken als deze geen verband houden met hun specifieke Department of War-contracten.”
Deze juridische strijd zal waarschijnlijk een precedent scheppen voor toekomstige conflicten tussen de Amerikaanse overheid en AI-bedrijven over de toegang tot cruciale technologieën.
Uiteindelijk kan de maatregel van het Ministerie van Defensie een averechts effect hebben, doordat het AI-innovatie verder buiten zijn controle brengt. Het feit dat grote technologiebedrijven deze benaming openlijk tarten, toont aan dat de harde aanpak van het leger niet zonder weerstand is.
