Президент Дональд Трамп розпорядився Міністерству оборони припинити використання технологій компанії Anthropic протягом шести місяців, загостривши напруженість щодо застосування штучного інтелекту у сфері національної безпеки. Рішення, оголошене в п’ятницю через Truth Social, пов’язане зі звинуваченням Трампа в тому, що Anthropic управляється “лівими фанатиками”, які намагаються нав’язати обмеження військових операцій.
Основна суперечка зосереджена навколо відмови Anthropic надати Пентагону необмежений доступ до своєї ІІ-моделі Claude. Генеральний директор Anthropic Даріо Амодеї публічно заявив, що компанія не дозволить проводити масове стеження за громадянами США або розробляти автономні системи озброєнь, позиція, заснована на проблемах безпеки ІІ, через які засновники залишили OpenAI. Уряд спочатку погодився з цими умовами, але мова контракту виявилася недостатньою для впевненості Anthropic.
Чому це важливо: Ця конфронтація підкреслює зростаючий конфлікт між приватними розробниками ІІ, які віддають пріоритет етичним гарантіям, та урядом, що прагне необмеженої технологічної переваги. Вимога Пентагону до контролю над інструментами ІІ суперечить обережному підходу Anthropic, відбиваючи ширші дебати про роль ІІ у війні та внутрішньої безпеки. Ця незгода, ймовірно, посилиться в міру розвитку можливостей ІІ, змушуючи приймати важкі рішення про прозорість, відповідальність та межі військового застосування.
Готовність Anthropic обмежувати використання своєї технології нетипова для галузі. Конкуренти, такі як OpenAI та Grok Ілона Маска, були набагато лояльнішими до вимог уряду. За даними джерел у ЦРУ, Grok вважається таким, що поступається моделі Anthropic, але адміністрація може все ж таки розглянути альтернативні партнерства, щоб уникнути обмежень Anthropic. Уряд не виключає використання Закону про виробничу оборону, щоб змусити Anthropic співпрацювати.
Реакція індустрії: Підтримка Anthropic швидко виникла у технологічному співтоваристві. Генеральний директор OpenAI Сем Альтман публічно висловив підтримку, а десятки співробітників Google та OpenAI підписали листи, які схвалюють позицію Амодеї. Навіть незважаючи на те, що Anthropic нещодавно пом’якшила свою безпекову політику, щоб залишатися конкурентоспроможною, вона зберігає більш міцну етичну основу, ніж багато конкурентів.
“Деякі варіанти використання [ІІ] просто виходять за межі того, що сьогоднішні технології можуть безпечно і надійно зробити”, – заявив генеральний директор Anthropic Даріо Амодеї в нещодавньому посту в блозі.
Ситуація нестабільна. Залишається незрозумілим, чи призведе директива Трампа до перегляду умов чи повного розриву зв’язків. Наступний крок уряду може змінити ландшафт розробки ІІ, сигналізуючи про те, чи переважать міркування національної безпеки етичні норми в технологічному секторі, що швидко розвивається.
Зрештою, цей конфлікт наголошує на фундаментальній суперечності: чи можуть приватні компанії диктувати урядам, як використовувати потужні нові технології, чи військові імперативи візьмуть гору? Результат, ймовірно, стане прецедентом для майбутніх партнерств у галузі ІІ між Кремнієвою долиною та Вашингтоном.
