додому Без рубрики Anthropic Бросает Вызов Обозначению «Риск для Цепи Поставок» со Стороны Минобороны США

Anthropic Бросает Вызов Обозначению «Риск для Цепи Поставок» со Стороны Минобороны США

Конфликт между Anthropic, ведущим разработчиком ИИ, и Министерством обороны (МО) США обострился, поскольку МО обозначило Anthropic как «риск для цепи поставок» национальной безопасности. Генеральный директор Anthropic, Дарио Амодей, незамедлительно отреагировал, заявив о намерении компании оспорить это обозначение в суде, утверждая, что оно лишено юридических оснований и не затрагивает большинство его клиентов.

Суть Спора: Контроль над Развёртыванием ИИ

Противостояние сосредоточено вокруг отказа Anthropic разрешить использование своих ИИ-технологий для массовой внутренней слежки или в полностью автономных системах вооружений. На прошлой неделе Anthropic заключил федеральный контракт на 200 миллионов долларов, но потребовал гарантий, что его ИИ не будет использоваться в военных целях без участия человека. Правительство США отклонило эти условия, пригрозив обозначением как риск для цепи поставок, которое впоследствии было введено в действие.

Этот шаг фактически исключает Anthropic из федеральных контрактов, поскольку исполнительный указ бывшего президента Трампа теперь обязывает все агентства прекратить использование его ИИ.

Сделка OpenAI: Прецедент и Источник Недоразумений

Действия МО против Anthropic последовали за аналогичным соглашением с OpenAI, которое также вызвало критику. Даже генеральный директор OpenAI Сэм Альтман публично назвал сделку своей компании с правительством США «сбивающей с толку», подчеркнув сложный и непрозрачный характер этих договорённостей.

Генеральный директор Anthropic Амодей признал существование сделки и заявил, что компания будет сотрудничать в течение переходного периода для правительства. Амодей также принёс извинения за утечку внутреннего меморандума, в котором подробно описан этот спор.

Последствия: Этика ИИ против Национальной Безопасности

Этот случай подчёркивает растущее напряжение между этической разработкой ИИ и интересами национальной безопасности. Позиция Anthropic подчёркивает критическую дискуссию об ограничениях развёртывания ИИ, особенно в военных целях. Готовность компании рисковать потерей крупного контракта, вместо того чтобы идти на компромисс со своими принципами, поднимает вопросы о том, как будет регулироваться будущее развитие ИИ.

Обозначение МО указывает на готовность ставить приоритетом цели национальной безопасности над предпочтениями поставщиков, что создаёт прецедент, который может повлиять на другие ИИ-компании.

«Anthropic предоставит свои модели Министерству Войны и сообществу национальной безопасности… на столько, на сколько это необходимо», — заявил Амодей, сигнализируя о прагматичном компромиссе, несмотря на продолжающийся судебный спор.

Спор далеко не окончен, и судебная битва, вероятно, развернётся в ближайшие месяцы. Этот случай создаст важный прецедент для того, как ИИ-компании налаживают свои отношения с правительствами, требующими доступа к передовым технологиям.

Exit mobile version