Trump nakazał Pentagonowi porzucenie Anthropic ze względu na „postępową” politykę

6

Prezydent Donald Trump nakazał Departamentowi Obrony zaprzestanie korzystania z technologii Anthropic w ciągu sześciu miesięcy, zwiększając napięcia w związku z wykorzystaniem sztucznej inteligencji w bezpieczeństwie narodowym. Decyzja, ogłoszona w piątek przez Truth Social, wynika z oskarżenia Trumpa, że ​​Anthropic jest zarządzany przez „lewicowych fanatyków”, którzy próbują nałożyć ograniczenia na operacje wojskowe.

Główny spór toczy się wokół odmowy Anthropic zapewnienia Pentagonowi nieograniczonego dostępu do jego modelu sztucznej inteligencji Claude. Dyrektor generalny Anthropic, Dario Amodei, publicznie oświadczył, że firma nie pozwoli na masową inwigilację obywateli USA ani na rozwój autonomicznych systemów uzbrojenia, co jest stanowiskiem opartym na obawach dotyczących bezpieczeństwa sztucznej inteligencji, które skłoniły założycieli do opuszczenia OpenAI. Rząd początkowo zgodził się na te warunki, ale język umowy był niewystarczający, aby zapewnić firmie Anthropic pewność siebie.

Dlaczego to ma znaczenie: Ta konfrontacja uwydatnia narastający konflikt między prywatnymi twórcami sztucznej inteligencji, dla których priorytetem są zabezpieczenia etyczne, a rządami poszukującymi nieograniczonej przewagi technologicznej. Żądanie Pentagonu dotyczące pełnej kontroli nad narzędziami sztucznej inteligencji jest sprzeczne z ostrożnym podejściem Anthropic, odzwierciedlając szersze debaty na temat roli sztucznej inteligencji w działaniach wojennych i bezpieczeństwie wewnętrznym. Ta różnica zdań prawdopodobnie będzie się nasilać w miarę ewolucji możliwości sztucznej inteligencji, wymuszając trudne decyzje dotyczące przejrzystości, odpowiedzialności i ograniczeń zastosowań wojskowych.

Chęć Anthropic do ograniczenia wykorzystania swojej technologii jest nietypowa dla branży. Konkurenci, tacy jak OpenAI i Grok Elona Muska, znacznie bardziej przychylnie nastawili się do żądań rządu. Według źródeł CIA Grok jest uważany za gorszy od modelu Anthropic, ale administracja może nadal rozważać alternatywne partnerstwa, aby uniknąć ograniczeń Anthropic. Rząd nie wykluczył wykorzystania ustawy Industrial Defence Act do zmuszenia Anthropic do współpracy.

Reakcja branży: W społeczności technologicznej szybko pojawiło się wsparcie dla Anthropic. Dyrektor generalny OpenAI Sam Altman publicznie wyraził poparcie, a kilkudziesięciu pracowników Google i OpenAI podpisało listy popierające stanowisko Amodei. Mimo że firma Anthropic niedawno złagodziła swoje zasady bezpieczeństwa, aby zachować konkurencyjność, utrzymuje silniejsze podstawy etyczne niż wielu konkurentów.

„Niektóre przypadki użycia [AI] po prostu wykraczają poza to, co dzisiejsza technologia może zapewnić bezpiecznie i niezawodnie” – stwierdził w niedawnym poście na blogu dyrektor generalny Anthropic, Dario Amodei.

Sytuacja jest niestabilna. Nie jest jasne, czy dyrektywa Trumpa doprowadzi do renegocjacji, czy też całkowitego zerwania więzi. Kolejne posunięcie rządu może zmienić krajobraz rozwoju sztucznej inteligencji, sygnalizując, czy obawy dotyczące bezpieczeństwa narodowego przeważą nad standardami etycznymi w szybko rozwijającym się sektorze technologii.

Ostatecznie konflikt ten uwypukla fundamentalne napięcie: czy prywatne firmy mogą dyktować, w jaki sposób rządy korzystają z nowych, potężnych technologii, czy też kontrolę przejmą imperatywy wojskowe? Wynik prawdopodobnie ustanowi precedens dla przyszłych partnerstw w zakresie sztucznej inteligencji między Doliną Krzemową a Waszyngtonem.