додому Последние новости и статьи Военные США Обостряют Конфликт вокруг ИИ, Но Крупные Технологические Компании Продолжат Поддерживать...

Военные США Обостряют Конфликт вокруг ИИ, Но Крупные Технологические Компании Продолжат Поддерживать Claude от Anthropic

Министерство обороны США (МО) официально признало AI-стартап Anthropic фактором риска в цепочке поставок после того, как компания отказалась предоставить неограниченный доступ к своей модели Claude для военных целей. Несмотря на этот беспрецедентный шаг – обычно применяемый к иностранным противникам – крупные технологические компании Microsoft, Google и Amazon продолжат предоставлять Claude клиентам, не связанным с оборонной промышленностью.

Почему Это Важно

Эта эскалация сигнализирует о растущей напряженности между МО и разработчиками ИИ в отношении этических границ и контроля над передовыми технологиями. Пентагон стремился получить доступ к Claude для таких приложений, как массовая слежка и полностью автономное оружие, но Anthropic отказался, сославшись на соображения безопасности. Ответ МО – обозначение как фактора риска в цепочке поставок – фактически запрещает своим ведомствам использовать Claude и обязывает подрядчиков подтверждать, что они этого не делают.

Эта ситуация высвечивает критический вопрос: должны ли разработчики ИИ быть обязаны служить военным интересам, даже если это противоречит их этическим принципам? Этот шаг необычен тем, что Anthropic – американская компания, а не иностранный противник, что вызывает вопросы о том, насколько далеко МО готово пойти, чтобы контролировать доступ к передовым технологиям ИИ.

Технологические Гиганты Сохраняют Твердость

Microsoft, Google и Amazon подтвердили, что не прекратят доступ к Claude для клиентов, не связанных с оборонной промышленностью. Microsoft заявила, что их юристы изучили обозначение и пришли к выводу, что модель может оставаться доступной через такие платформы, как Microsoft 365, GitHub и ее AI Foundry. Google подтвердил то же самое для своих облачных и AI-продуктов, а CNBC сообщил, что клиенты AWS также сохранят доступ для невоенного использования.

Эти фирмы балансируют на грани: они работают с государственными контрактами, но также не хотят отпугивать клиентов и подавлять инновации, полностью подчиняясь требованиям МО. Тот факт, что они предпочли поддержать Anthropic, говорит о нежелании полностью передавать контроль над ИИ военным.

Ответ Anthropic

Генеральный директор Anthropic Дарио Амодеи пообещал оспорить обозначение в суде, утверждая, что оно применяется только к прямым контрактам с МО, а не ко всему использованию Claude клиентами, которые такие контракты имеют. Компания настаивает на том, что даже для подрядчиков МО это ограничение не распространяется, если их использование Claude не связано с военными проектами.

«Обозначение как фактора риска не (и не может) ограничивать использование Claude или деловые отношения с Anthropic, если они не связаны с их конкретными контрактами с Министерством Войны».

Эта судебная тяжба, вероятно, создаст прецедент для будущих конфликтов между правительством США и компаниями в области ИИ из-за доступа к критически важным технологиям.

В конечном счете, шаг МО может обернуться против него, отталкивая инновации в области ИИ еще дальше от его контроля. Тот факт, что крупные технологические фирмы открыто бросают вызов этому обозначению, показывает, что жесткий подход военных не остается без ответа.

Exit mobile version