O Departamento de Defesa dos EUA (DoD) designou oficialmente a startup de IA Antrópico como um risco para a cadeia de abastecimento, depois de a empresa se ter recusado a conceder acesso irrestrito ao seu modelo Claude para aplicações militares. Apesar deste movimento sem precedentes – normalmente reservado a adversários estrangeiros – as grandes empresas de tecnologia Microsoft, Google e Amazon continuarão a disponibilizar Claude para clientes não relacionados à defesa.
Por que isso é importante
Esta escalada sinaliza uma tensão crescente entre o DoD e os criadores de IA sobre os limites éticos e o controlo da tecnologia avançada. O Pentágono procurou acesso a Claude para aplicações que incluíam vigilância em massa e armas totalmente autónomas, mas a Anthropic recusou, alegando preocupações de segurança. A resposta do DoD – uma designação de cadeia de abastecimento – proíbe efectivamente as suas próprias agências de utilizarem Claude e obriga os empreiteiros a certificarem que não o fazem.
Esta situação realça um debate crítico: Devem os criadores de IA ser obrigados a servir os interesses militares, mesmo que isso entre em conflito com os seus princípios éticos? A medida é invulgar porque a Anthropic é uma empresa dos EUA, e não um adversário estrangeiro, levantando questões sobre até que ponto o DoD irá para controlar o acesso à IA de ponta.
Gigantes da tecnologia permanecem firmes
Microsoft, Google e Amazon confirmaram que não cortarão o acesso a Claude para clientes que não sejam de defesa. A Microsoft afirmou que seus advogados revisaram a designação e concluíram que o modelo pode permanecer disponível por meio de plataformas como Microsoft 365, GitHub e AI Foundry. O Google confirmou o mesmo para seus produtos de nuvem e IA, e a CNBC informou que os clientes da AWS também manterão acesso para uso não militar.
Estas empresas estão a caminhar numa corda bamba: cumprem contratos governamentais, mas também querem evitar alienar clientes e sufocar a inovação, cumprindo integralmente as exigências do DoD. O facto de terem optado por apoiar a Anthropic sugere uma relutância em ceder o controlo total da IA aos militares.
Resposta da Antrópica
O CEO da Anthropic, Dario Amodei, prometeu lutar contra a designação no tribunal, argumentando que ela se aplica apenas a contratos diretos com o DoD, e não a todo uso de Claude por clientes que possuem tais contratos. A empresa insiste que mesmo para os empreiteiros do DoD, a restrição não se aplica se o uso do Claude não estiver relacionado com projetos militares.
“A designação de risco da cadeia de suprimentos não limita (e não pode) limitar o uso de Claude ou as relações comerciais com a Anthropic se estas não estiverem relacionadas aos seus contratos específicos do Departamento de Guerra.”
Esta batalha legal provavelmente abrirá um precedente para futuros conflitos entre o governo dos EUA e as empresas de IA sobre o acesso a tecnologias críticas.
Em última análise, a acção do DoD pode sair pela culatra, afastando ainda mais a inovação da IA do seu controlo. O facto de as principais empresas tecnológicas estarem a desafiar abertamente a designação mostra que a abordagem linha-dura dos militares não está isenta de resistência.
