Il Dipartimento della Difesa degli Stati Uniti (DoD) ha ufficialmente designato la startup di intelligenza artificiale Anthropic come un rischio per la catena di approvvigionamento, dopo che la società si è rifiutata di concedere accesso illimitato al suo modello Claude per applicazioni militari. Nonostante questa mossa senza precedenti, solitamente riservata ad avversari stranieri, le principali aziende tecnologiche Microsoft, Google e Amazon continueranno a rendere Claude disponibile a clienti non appartenenti alla difesa.
Perché è importante
Questa escalation segnala una crescente tensione tra il Dipartimento della Difesa e gli sviluppatori di intelligenza artificiale sui confini etici e sul controllo della tecnologia avanzata. Il Pentagono ha cercato di accedere a Claude per applicazioni che includevano la sorveglianza di massa e armi completamente autonome, ma Anthropic ha rifiutato, citando problemi di sicurezza. La risposta del Dipartimento della Difesa – una designazione della catena di fornitura – impedisce di fatto alle proprie agenzie di utilizzare Claude e costringe gli appaltatori a certificare che non lo fanno.
Questa situazione evidenzia un dibattito critico: Gli sviluppatori di intelligenza artificiale dovrebbero essere obbligati a servire gli interessi militari, anche se è in conflitto con i loro principi etici? La mossa è insolita perché Anthropic è una società statunitense, non un avversario straniero, sollevando dubbi su fino a che punto si spingerà il Dipartimento della Difesa per controllare l’accesso all’intelligenza artificiale all’avanguardia.
I giganti della tecnologia restano saldi
Microsoft, Google e Amazon hanno confermato che non interromperanno l’accesso a Claude per i clienti non appartenenti alla difesa. Microsoft ha affermato che i suoi avvocati hanno esaminato la designazione e hanno concluso che il modello può rimanere disponibile attraverso piattaforme come Microsoft 365, GitHub e il suo AI Foundry. Google ha confermato lo stesso per i suoi prodotti cloud e AI e la CNBC ha riferito che i clienti AWS manterranno l’accesso anche per uso non militare.
Queste aziende stanno camminando sul filo del rasoio: servono contratti governativi, ma vogliono anche evitare di alienare i clienti e soffocare l’innovazione rispettando pienamente le richieste del DoD. Il fatto che abbiano scelto di sostenere Anthropic suggerisce una riluttanza a cedere il pieno controllo dell’intelligenza artificiale ai militari.
La risposta di Anthropic
Il CEO di Anthropic, Dario Amodei, ha promesso di combattere la designazione in tribunale, sostenendo che si applica solo ai contratti diretti con il DoD e non a tutti gli usi di Claude da parte dei clienti che hanno tali contratti. L’azienda insiste sul fatto che anche per gli appaltatori del Dipartimento della Difesa la restrizione non si applica se il loro utilizzo di Claude non è correlato a progetti militari.
“La designazione del rischio della catena di fornitura non limita (e non può) limitare gli usi di Claude o i rapporti commerciali con Anthropic se questi non sono correlati ai loro specifici contratti con il Dipartimento della Guerra.”
Questa battaglia legale costituirà probabilmente un precedente per futuri conflitti tra il governo degli Stati Uniti e le società di intelligenza artificiale sull’accesso alle tecnologie critiche.
In definitiva, la mossa del Dipartimento della Difesa potrebbe rivelarsi controproducente allontanando l’innovazione dell’intelligenza artificiale dal suo controllo. Il fatto che le principali aziende tecnologiche stiano apertamente sfidando la designazione dimostra che l’approccio intransigente dell’esercito non è privo di resistenza.





























