Конфликт между Anthropic, ведущим разработчиком ИИ, и Министерством обороны (МО) США обострился, поскольку МО обозначило Anthropic как «риск для цепи поставок» национальной безопасности. Генеральный директор Anthropic, Дарио Амодей, незамедлительно отреагировал, заявив о намерении компании оспорить это обозначение в суде, утверждая, что оно лишено юридических оснований и не затрагивает большинство его клиентов.
Суть Спора: Контроль над Развёртыванием ИИ
Противостояние сосредоточено вокруг отказа Anthropic разрешить использование своих ИИ-технологий для массовой внутренней слежки или в полностью автономных системах вооружений. На прошлой неделе Anthropic заключил федеральный контракт на 200 миллионов долларов, но потребовал гарантий, что его ИИ не будет использоваться в военных целях без участия человека. Правительство США отклонило эти условия, пригрозив обозначением как риск для цепи поставок, которое впоследствии было введено в действие.
Этот шаг фактически исключает Anthropic из федеральных контрактов, поскольку исполнительный указ бывшего президента Трампа теперь обязывает все агентства прекратить использование его ИИ.
Сделка OpenAI: Прецедент и Источник Недоразумений
Действия МО против Anthropic последовали за аналогичным соглашением с OpenAI, которое также вызвало критику. Даже генеральный директор OpenAI Сэм Альтман публично назвал сделку своей компании с правительством США «сбивающей с толку», подчеркнув сложный и непрозрачный характер этих договорённостей.
Генеральный директор Anthropic Амодей признал существование сделки и заявил, что компания будет сотрудничать в течение переходного периода для правительства. Амодей также принёс извинения за утечку внутреннего меморандума, в котором подробно описан этот спор.
Последствия: Этика ИИ против Национальной Безопасности
Этот случай подчёркивает растущее напряжение между этической разработкой ИИ и интересами национальной безопасности. Позиция Anthropic подчёркивает критическую дискуссию об ограничениях развёртывания ИИ, особенно в военных целях. Готовность компании рисковать потерей крупного контракта, вместо того чтобы идти на компромисс со своими принципами, поднимает вопросы о том, как будет регулироваться будущее развитие ИИ.
Обозначение МО указывает на готовность ставить приоритетом цели национальной безопасности над предпочтениями поставщиков, что создаёт прецедент, который может повлиять на другие ИИ-компании.
«Anthropic предоставит свои модели Министерству Войны и сообществу национальной безопасности… на столько, на сколько это необходимо», — заявил Амодей, сигнализируя о прагматичном компромиссе, несмотря на продолжающийся судебный спор.
Спор далеко не окончен, и судебная битва, вероятно, развернётся в ближайшие месяцы. Этот случай создаст важный прецедент для того, как ИИ-компании налаживают свои отношения с правительствами, требующими доступа к передовым технологиям.






























