Antropické výzvy Označení rizika dodavatelského řetězce DoD

3

Konflikt mezi společností Anthropic, předním vývojářem umělé inteligence, a ministerstvem obrany USA (DoD) eskaloval, protože ministerstvo obrany označilo společnost Anthropic za „riziko dodavatelského řetězce“ pro národní bezpečnost. Generální ředitel společnosti Anthropic, Dario Amodei, okamžitě zareagoval oznámením záměru společnosti napadnout označení u soudu s argumentem, že to nemá žádný právní základ a neovlivňuje to.

Bod sporu: Kontrola nad nasazením AI

Patová situace se soustředí na to, že společnost Anthropic odmítla povolit použití její technologie AI pro hromadné domácí sledování nebo v plně autonomních zbraňových systémech. Minulý týden získala společnost Anthropic federální kontrakt v hodnotě 200 milionů dolarů, ale požadovala ujištění, že její AI nebude bez lidského zásahu používána pro vojenské účely. Americká vláda tyto podmínky odmítla a pohrozila označením za riziko dodavatelského řetězce, což bylo následně prosazeno.

Tento krok fakticky vylučuje Anthropic z federálních kontraktů, protože výkonný příkaz bývalého prezidenta Trumpa nyní vyžaduje, aby všechny agentury přestaly používat jeho AI.

Dohoda OpenAI: precedens a zdroj nedorozumění

Akce ministerstva obrany proti Anthropic navazuje na podobnou dohodu s OpenAI, která také vyvolala kritiku. Dokonce i generální ředitel OpenAI Sam Altman veřejně označil dohodu své společnosti s americkou vládou za „zmatenou,“ a zdůraznil složitou a neprůhlednou povahu těchto ujednání.

Generální ředitel společnosti Anthropic Amodei uznal dohodu a řekl, že společnost bude spolupracovat během přechodného období vlády. Amodei se také omluvil za únik interní zprávy podrobně popisující spor.

Důsledky: Etika umělé inteligence versus národní bezpečnost

Případ zdůrazňuje rostoucí napětí mezi etickým rozvojem umělé inteligence a zájmy národní bezpečnosti. Postoj společnosti Anthropic zdůrazňuje kritickou debatu o limitech nasazení AI, zejména pro vojenské účely. Ochota společnosti riskovat ztrátu významné zakázky spíše než slevit ze svých zásad vyvolává otázky, jak bude budoucí vývoj AI regulován.

Označení DoD naznačuje ochotu upřednostnit národní bezpečnostní cíle před preferencemi prodejců, což vytváří precedens, který by mohl ovlivnit další společnosti AI.

“Anthropic dá své modely k dispozici ministerstvu války a komunitě národní bezpečnosti… tak dlouho, jak to bude nutné,” řekl Amodei a naznačil pragmatický kompromis navzdory probíhajícímu právnímu sporu.

Spor není zdaleka u konce a právní bitva se pravděpodobně rozvine v následujících měsících. Případ vytvoří důležitý precedens pro to, jak společnosti s umělou inteligencí procházejí vztahy s vládami, které požadují přístup k pokročilým technologiím.