Das US-Verteidigungsministerium (DoD) hat das KI-Startup Anthropic offiziell als Lieferkettenrisiko eingestuft, nachdem das Unternehmen sich geweigert hatte, uneingeschränkten Zugang zu seinem Claude-Modell für militärische Anwendungen zu gewähren. Trotz dieses beispiellosen Schritts – der normalerweise ausländischen Gegnern vorbehalten ist – werden die großen Technologieunternehmen Microsoft, Google und Amazon Claude weiterhin für Kunden außerhalb des Verteidigungssektors verfügbar machen.**
Warum das wichtig ist
Diese Eskalation signalisiert eine wachsende Spannung zwischen dem Verteidigungsministerium und den KI-Entwicklern über ethische Grenzen und die Kontrolle fortschrittlicher Technologie. Das Pentagon beantragte Zugang zu Claude für Anwendungen wie Massenüberwachung und völlig autonome Waffen, doch Anthropic lehnte dies unter Berufung auf Sicherheitsbedenken ab. Die Antwort des Verteidigungsministeriums – eine Bezeichnung für die Lieferkette – verbietet seinen eigenen Behörden praktisch die Verwendung von Claude und zwingt Auftragnehmer dazu, zu bestätigen, dass sie dies nicht tun.
Diese Situation markiert eine kritische Debatte: Sollten KI-Entwickler verpflichtet sein, militärischen Interessen zu dienen, auch wenn dies im Widerspruch zu ihren ethischen Grundsätzen steht? Der Schritt ist ungewöhnlich, da Anthropic ein US-amerikanisches Unternehmen und kein ausländischer Gegner ist, was die Frage aufwirft, wie weit das Verteidigungsministerium gehen wird, um den Zugang zu modernster KI zu kontrollieren.
Tech Giants bleiben standhaft
Microsoft, Google und Amazon haben alle bestätigt, dass sie den Zugang zu Claude für Nicht-Verteidigungskunden nicht sperren werden. Microsoft erklärte, seine Anwälte hätten die Bezeichnung überprüft und seien zu dem Schluss gekommen, dass die Marke weiterhin über Plattformen wie Microsoft 365, GitHub und seine AI Foundry verfügbar sein könne. Google bestätigte dasselbe für seine Cloud- und KI-Produkte, und CNBC berichtete, dass AWS-Kunden auch für nichtmilitärische Zwecke Zugriff behalten werden.
Diese Firmen vollziehen einen Drahtseilakt: Sie bedienen Regierungsaufträge, wollen aber gleichzeitig vermeiden, Kunden zu entfremden und Innovationen zu unterdrücken, indem sie den Forderungen des Verteidigungsministeriums vollständig nachkommen. Die Tatsache, dass sie sich für die Unterstützung von Anthropic entschieden haben, deutet auf eine Abneigung hin, die volle Kontrolle über die KI dem Militär zu überlassen.
Anthropics Antwort
Dario Amodei, CEO von Anthropic, hat geschworen, die Bezeichnung vor Gericht anzufechten, und argumentiert, sie gelte nur für direkte Verträge mit dem Verteidigungsministerium und nicht für die gesamte Nutzung von Claude durch Kunden, die über solche Verträge verfügen. Das Unternehmen besteht darauf, dass die Einschränkung auch für Auftragnehmer des Verteidigungsministeriums nicht gilt, wenn deren Nutzung von Claude nichts mit militärischen Projekten zu tun hat.
„Die Kennzeichnung als Lieferkettenrisiko schränkt die Verwendung von Claude oder die Geschäftsbeziehungen mit Anthropic nicht ein (und kann dies auch nicht), wenn diese nicht mit den spezifischen Verträgen des Kriegsministeriums in Zusammenhang stehen.“
Dieser Rechtsstreit wird wahrscheinlich einen Präzedenzfall für künftige Konflikte zwischen der US-Regierung und KI-Unternehmen um den Zugang zu kritischen Technologien schaffen.
Letztendlich könnte der Schritt des Verteidigungsministeriums nach hinten losgehen, da er die KI-Innovation weiter seiner Kontrolle entzieht. Die Tatsache, dass große Technologiefirmen sich offen der Bezeichnung widersetzen, zeigt, dass der harte Ansatz des Militärs nicht ohne Widerstand stößt.
