Konflikt między Anthropic, wiodącym twórcą sztucznej inteligencji, a Departamentem Obrony Stanów Zjednoczonych (DoD) nasilił się, gdy Departament Obrony uznał Anthropic za „ryzyko w łańcuchu dostaw” dla bezpieczeństwa narodowego. Dyrektor generalny Anthropic, Dario Amodei, natychmiast zareagował, ogłaszając, że firma zamierza zakwestionować tę nominację w sądzie, argumentując, że nie ma ona podstawy prawnej i nie ma wpływu na większość jej klientów.
Punkt sporny: kontrola nad wdrażaniem sztucznej inteligencji
Spór koncentruje się na odmowie firmy Anthropic na wykorzystanie jej technologii sztucznej inteligencji do masowego nadzoru krajowego lub w całkowicie autonomicznych systemach uzbrojenia. W zeszłym tygodniu firmie Anthropic przyznano kontrakt federalny o wartości 200 milionów dolarów, żądając jednak zapewnień, że jej sztuczna inteligencja nie będzie wykorzystywana do celów wojskowych bez interwencji człowieka. Rząd USA odrzucił te warunki, grożąc uznaniem firmy za stwarzającą ryzyko w łańcuchu dostaw, co zostało następnie egzekwowane.
Posunięcie to skutecznie wyklucza Anthropic z kontraktów federalnych, ponieważ zarządzenie byłego prezydenta Trumpa nakłada obecnie na wszystkie agencje obowiązek zaprzestania korzystania z sztucznej inteligencji.
Umowa OpenAI: precedens i źródło nieporozumień
Działania Departamentu Obrony przeciwko Anthropic wynikają z podobnego porozumienia z OpenAI, które również spotkało się z krytyką. Nawet dyrektor generalny OpenAI, Sam Altman, publicznie nazwał umowę swojej firmy z rządem USA „zagmatwaną”, podkreślając złożony i nieprzejrzysty charakter tych ustaleń.
Dyrektor generalny Anthropic, Amodei, potwierdził transakcję i powiedział, że firma będzie współpracować w okresie przejściowym rządu. Amodei przeprosił również za wyciek wewnętrznej notatki szczegółowo opisującej spór.
Konsekwencje: etyka sztucznej inteligencji a bezpieczeństwo narodowe
Sprawa podkreśla rosnące napięcie między etycznym rozwojem sztucznej inteligencji a interesami bezpieczeństwa narodowego. Stanowisko Anthropic podkreśla krytyczną debatę na temat ograniczeń wdrażania sztucznej inteligencji, zwłaszcza do celów wojskowych. Gotowość firmy do zaryzykowania utraty dużego kontraktu, zamiast pójść na kompromis w zakresie swoich zasad, rodzi pytania o to, w jaki sposób będzie regulowany przyszły rozwój sztucznej inteligencji.
Oznaczenie Departamentu Obrony wskazuje na chęć przedłożenia celów bezpieczeństwa narodowego nad preferencjami dostawców, ustanawiając precedens, który mógłby mieć wpływ na inne firmy zajmujące się sztuczną inteligencją.
„Anthropic udostępni swoje modele Departamentowi Wojny i społeczności bezpieczeństwa narodowego… tak długo, jak będzie to konieczne” – powiedział Amodei, sygnalizując pragmatyczny kompromis pomimo toczącego się sporu prawnego.
Spór jeszcze się nie zakończył, a batalia prawna prawdopodobnie rozegra się w nadchodzących miesiącach. Sprawa ustanowi ważny precedens dla sposobu, w jaki firmy zajmujące się sztuczną inteligencją radzą sobie w swoich relacjach z rządami żądającymi dostępu do zaawansowanych technologii.
