Het conflict tussen Anthropic, een toonaangevende AI-ontwikkelaar, en het Ministerie van Defensie (DoD) is geëscaleerd, waarbij het DoD Anthropic bestempelt als een “toeleveringsketenrisico” voor de nationale veiligheid. De CEO van Anthropic, Dario Amodei, reageerde onmiddellijk door aan te kondigen dat het bedrijf de aanwijzing juridisch zal aanvechten, met het argument dat het geen wettelijke basis heeft en geen gevolgen heeft voor de meeste van zijn klanten.
De kern van het geschil: controle over de inzet van AI
De impasse concentreert zich op de weigering van Anthropic om toe te staan dat zijn AI-technologie wordt gebruikt voor massale binnenlandse surveillance of in volledig autonome wapensystemen. Vorige week heeft Anthropic een federaal contract ter waarde van 200 miljoen dollar binnengehaald, maar drong aan op garanties dat zijn AI niet zou worden bewapend zonder menselijk toezicht. De Amerikaanse regering verwierp deze voorwaarden en dreigde met het benoemen van risico’s voor de toeleveringsketen, die vervolgens werd afgedwongen.
Door deze actie wordt Anthropic feitelijk op de zwarte lijst gezet van federale contracten, aangezien het uitvoerend bevel van voormalig president Trump nu alle agentschappen dwingt om te stoppen met het gebruik van zijn AI.
De deal van OpenAI: een precedent en een punt van verwarring
De stap van het Ministerie van Defensie tegen Anthropic volgt op een soortgelijke overeenkomst met OpenAI, dat ook kritiek heeft opgeleverd. Zelfs Sam Altman, CEO van OpenAI, omschreef de deal van zijn bedrijf met de Amerikaanse overheid publiekelijk als ‘verwarrend’, waarbij hij de complexe en ondoorzichtige aard van deze regelingen benadrukte.
Anthropic CEO Amodei erkende de deal en zei dat het bedrijf zal meewerken aan een overgangsperiode voor de overheid. Amodei verontschuldigde zich ook voor het lekken van een interne memo waarin het geschil werd beschreven.
Implicaties: AI-ethiek versus nationale veiligheid
Deze zaak benadrukt de groeiende spanning tussen ethische AI-ontwikkeling en nationale veiligheidsbelangen. Het standpunt van Anthropic onderstreept een kritisch debat over de grenzen van de inzet van AI, vooral in militaire toepassingen. De bereidheid van het bedrijf om het risico te lopen een groot contract te verliezen in plaats van zijn principes in gevaar te brengen, roept vragen op over hoe de toekomstige AI-ontwikkeling zal worden geregeld.
De benoeming van het DoD suggereert een bereidheid om prioriteit te geven aan nationale veiligheidsdoelstellingen boven leveranciersvoorkeuren, waardoor een precedent wordt geschapen dat andere AI-bedrijven zou kunnen beïnvloeden.
“Anthropic zal onze modellen leveren aan het Ministerie van Oorlog en de nationale veiligheidsgemeenschap… zo lang als nodig is,” verklaarde Amodei, waarmee hij een pragmatisch compromis aangaf ondanks de aanhoudende juridische uitdaging.
Het geschil is nog lang niet voorbij en de juridische strijd zal zich waarschijnlijk de komende maanden ontvouwen. Deze zaak zal een belangrijk precedent scheppen voor de manier waarop AI-bedrijven omgaan met hun relatie met overheden die toegang tot geavanceerde technologie eisen.






























