Военные США Обостряют Конфликт вокруг ИИ, Но Крупные Технологические Компании Продолжат Поддерживать Claude от Anthropic

22

Министерство обороны США (МО) официально признало AI-стартап Anthropic фактором риска в цепочке поставок после того, как компания отказалась предоставить неограниченный доступ к своей модели Claude для военных целей. Несмотря на этот беспрецедентный шаг – обычно применяемый к иностранным противникам – крупные технологические компании Microsoft, Google и Amazon продолжат предоставлять Claude клиентам, не связанным с оборонной промышленностью.

Почему Это Важно

Эта эскалация сигнализирует о растущей напряженности между МО и разработчиками ИИ в отношении этических границ и контроля над передовыми технологиями. Пентагон стремился получить доступ к Claude для таких приложений, как массовая слежка и полностью автономное оружие, но Anthropic отказался, сославшись на соображения безопасности. Ответ МО – обозначение как фактора риска в цепочке поставок – фактически запрещает своим ведомствам использовать Claude и обязывает подрядчиков подтверждать, что они этого не делают.

Эта ситуация высвечивает критический вопрос: должны ли разработчики ИИ быть обязаны служить военным интересам, даже если это противоречит их этическим принципам? Этот шаг необычен тем, что Anthropic – американская компания, а не иностранный противник, что вызывает вопросы о том, насколько далеко МО готово пойти, чтобы контролировать доступ к передовым технологиям ИИ.

Технологические Гиганты Сохраняют Твердость

Microsoft, Google и Amazon подтвердили, что не прекратят доступ к Claude для клиентов, не связанных с оборонной промышленностью. Microsoft заявила, что их юристы изучили обозначение и пришли к выводу, что модель может оставаться доступной через такие платформы, как Microsoft 365, GitHub и ее AI Foundry. Google подтвердил то же самое для своих облачных и AI-продуктов, а CNBC сообщил, что клиенты AWS также сохранят доступ для невоенного использования.

Эти фирмы балансируют на грани: они работают с государственными контрактами, но также не хотят отпугивать клиентов и подавлять инновации, полностью подчиняясь требованиям МО. Тот факт, что они предпочли поддержать Anthropic, говорит о нежелании полностью передавать контроль над ИИ военным.

Ответ Anthropic

Генеральный директор Anthropic Дарио Амодеи пообещал оспорить обозначение в суде, утверждая, что оно применяется только к прямым контрактам с МО, а не ко всему использованию Claude клиентами, которые такие контракты имеют. Компания настаивает на том, что даже для подрядчиков МО это ограничение не распространяется, если их использование Claude не связано с военными проектами.

«Обозначение как фактора риска не (и не может) ограничивать использование Claude или деловые отношения с Anthropic, если они не связаны с их конкретными контрактами с Министерством Войны».

Эта судебная тяжба, вероятно, создаст прецедент для будущих конфликтов между правительством США и компаниями в области ИИ из-за доступа к критически важным технологиям.

В конечном счете, шаг МО может обернуться против него, отталкивая инновации в области ИИ еще дальше от его контроля. Тот факт, что крупные технологические фирмы открыто бросают вызов этому обозначению, показывает, что жесткий подход военных не остается без ответа.