додому Najnowsze wiadomości i artykuły Wojsko USA eskaluje konflikt AI, ale wielka technologia będzie nadal wspierać Claude’a...

Wojsko USA eskaluje konflikt AI, ale wielka technologia będzie nadal wspierać Claude’a z Anthropic

Departament Obrony Stanów Zjednoczonych (DoD) oficjalnie uznał start-up AI Anthropic za zagrożenie w łańcuchu dostaw po tym, jak firma odmówiła zapewnienia nieograniczonego dostępu do swojego modelu Claude do celów wojskowych. Pomimo tego bezprecedensowego posunięcia – zwykle zarezerwowanego dla zagranicznych przeciwników – główne firmy technologiczne Microsoft, Google i Amazon będą w dalszym ciągu udostępniać Claude klientom spoza branży obronnej.

Dlaczego to jest ważne

Ta eskalacja sygnalizuje rosnące napięcia między twórcami DoD i AI dotyczące granic etycznych i kontroli nad zaawansowanymi technologiami. Pentagon starał się o dostęp do Claude’a do zastosowań takich jak masowa inwigilacja i w pełni autonomiczna broń, ale Anthropic odmówił, powołując się na obawy dotyczące bezpieczeństwa. Odpowiedź Departamentu Obrony – uznanie go za ryzyko w łańcuchu dostaw – skutecznie zabrania jego agencjom korzystania z Claude i wymaga od wykonawców zaświadczeń, że tego nie robią.

Sytuacja ta uwypukla kluczowe pytanie: Czy od twórców sztucznej inteligencji należy wymagać służenia interesom wojskowym, nawet jeśli jest to sprzeczne z ich zasadami etycznymi? Posunięcie to jest niezwykłe, ponieważ Anthropic jest firmą amerykańską, a nie zagranicznym przeciwnikiem, co rodzi pytania o to, jak daleko Departament Obrony jest skłonny się posunąć, aby kontrolować dostęp do zaawansowanej technologii sztucznej inteligencji.

Technolodzy pozostają solidni

Microsoft, Google i Amazon potwierdziły, że nie odetną dostępu do Claude klientom niezwiązanym z obronnością. Microsoft powiedział, że jego prawnicy sprawdzili oznaczenie i doszli do wniosku, że model może pozostać dostępny za pośrednictwem platform takich jak Microsoft 365, GitHub i AI Foundry. Google potwierdził to samo w przypadku swoich produktów w chmurze i sztucznej inteligencji, a CNBC poinformowało, że klienci AWS zachowają dostęp również do celów innych niż wojskowe.

Firmy te chodzą po linie: pracują na kontraktach rządowych, ale nie chcą też odstraszyć klientów i zdusić innowacji, całkowicie podporządkowując się żądaniom Departamentu Obrony. Fakt, że zdecydowali się wesprzeć Anthropic, pokazuje ich niechęć do całkowitego przekazania kontroli nad sztuczną inteligencją wojsku.

Odpowiedz na Anthropic

Dyrektor generalny Anthropic, Dario Amodei, obiecał zakwestionować tę nominację w sądzie, argumentując, że ma ona zastosowanie wyłącznie do bezpośrednich umów z Departamentem Obrony, a nie do wszystkich przypadków korzystania z Claude przez klientów, którzy mają takie umowy. Firma upiera się, że nawet w przypadku wykonawców Departamentu Obrony to ograniczenie nie ma zastosowania, jeśli korzystanie z Claude nie jest związane z projektami wojskowymi.

„Uznanie za czynnik ryzyka nie ogranicza (i nie może) ograniczać korzystania przez Claude z Anthropic ani relacji biznesowych z Anthropic, chyba że są one powiązane z jego konkretnymi umowami z Departamentem Wojny”.

Ta batalia prawna prawdopodobnie ustanowi precedens dla przyszłych konfliktów między rządem USA a firmami zajmującymi się sztuczną inteligencją w sprawie dostępu do kluczowych technologii.

Ostatecznie posunięcie Departamentu Obrony może przynieść odwrotny skutek, oddalając innowacje w dziedzinie sztucznej inteligencji spod jego kontroli. Fakt, że duże firmy technologiczne otwarcie kwestionują tę nominację, pokazuje, że twarde podejście armii nie pozostaje niekwestionowane.

Exit mobile version