Americké ministerstvo obrany (DoD) oficiálně označilo AI startup Anthropic za riziko dodavatelského řetězce poté, co společnost odmítla poskytnout neomezený přístup ke svému modelu Claude pro vojenské účely. Navzdory tomuto bezprecedentnímu kroku – obvykle vyhrazenému pro zahraniční protivníky – hlavní technologické společnosti Microsoft, Google a Amazon budou i nadále zpřístupňovat Clauda zákazníkům mimo obranu.
Proč je to důležité
Tato eskalace signalizuje rostoucí napětí mezi vývojáři DoD a AI ohledně etických hranic a kontroly nad pokročilými technologiemi. Pentagon usiloval o přístup ke Claudovi pro aplikace, jako je hromadné sledování a plně autonomní zbraně, ale Anthropic odmítl s odkazem na bezpečnostní obavy. Reakce ministerstva obrany – označení jako riziko dodavatelského řetězce – účinně zakazuje svým agenturám používat Claude a vyžaduje, aby dodavatelé potvrdili, že tak nečiní.
Tato situace zdůrazňuje kritickou otázku: Mělo by se po vývojářích umělé inteligence vyžadovat, aby sloužili vojenským zájmům, i když je to v rozporu s jejich etickými zásadami? Tento krok je neobvyklý v tom, že Anthropic je spíše americká společnost než zahraniční protivník, což vyvolává otázky, jak daleko je ministerstvo obrany ochotno zajít, aby řídilo přístup k pokročilé technologii umělé inteligence.
Techničtí obři zůstávají solidní
Microsoft, Google a Amazon potvrdily, že nepřeruší přístup k Claude zákazníkům, kteří se netýkají obrany. Microsoft uvedl, že jeho právníci přezkoumali označení a dospěli k závěru, že model by mohl zůstat dostupný prostřednictvím platforem jako Microsoft 365, GitHub a jeho AI Foundry. Google potvrdil totéž pro své cloudové a AI produkty a CNBC oznámilo, že zákazníci AWS si zachovají přístup i pro nevojenské použití.
Tyto firmy kráčejí po laně: pracují na státních zakázkách, ale také nechtějí strašit zákazníky a potlačovat inovace tím, že jsou zcela v souladu s požadavky ministerstva obrany. Skutečnost, že se rozhodli podporovat Anthropic, ukazuje jejich neochotu zcela předat kontrolu nad AI armádě.
Odpověď na Antropickou
Generální ředitel společnosti Anthropic Dario Amodei slíbil, že toto označení napadne u soudu s tím, že se vztahuje pouze na přímé smlouvy s DoD, a ne na veškeré použití Claude klienty, kteří takové smlouvy mají. Společnost trvá na tom, že ani pro dodavatele DoD toto omezení neplatí, pokud jejich použití Claude nesouvisí s vojenskými projekty.
“Označení jako rizikový faktor neomezuje (a nemůže) Claudovo použití nebo obchodní vztahy s Anthropic, pokud nesouvisejí s jejich konkrétními smlouvami s ministerstvem války.”
Tato právní bitva pravděpodobně vytvoří precedens pro budoucí konflikty mezi americkou vládou a společnostmi zabývajícími se umělou inteligencí ohledně přístupu ke kritickým technologiím.
V konečném důsledku by krok ministerstva obrany mohl selhat a vytlačit inovace AI dále z jeho kontroly. Skutečnost, že velké technologické firmy toto označení otevřeně zpochybňují, ukazuje, že tvrdý přístup armády nezůstává bez námitek.
