Il conflitto tra Anthropic, uno dei principali sviluppatori di intelligenza artificiale, e il Dipartimento della Difesa (DoD) si è intensificato, con il Dipartimento che designa Anthropic come un “rischio nella catena di fornitura” per la sicurezza nazionale. Il CEO di Anthropic, Dario Amodei, ha immediatamente risposto annunciando che la società contesterà legalmente la designazione, sostenendo che manca di base legale e non ha alcun impatto sulla maggior parte dei suoi clienti.
Il nocciolo della controversia: il controllo sull’implementazione dell’IA
Lo stallo è incentrato sul rifiuto di Anthropic di consentire che la sua tecnologia AI venga utilizzata per la sorveglianza domestica di massa o in sistemi d’arma completamente autonomi. La scorsa settimana, Anthropic si è assicurata un contratto federale da 200 milioni di dollari, ma ha insistito sulla garanzia che la sua intelligenza artificiale non sarebbe stata utilizzata come arma senza la supervisione umana. Il governo degli Stati Uniti ha rifiutato questi termini, minacciando una designazione di rischio nella catena di approvvigionamento, che è stata successivamente applicata.
Questa azione di fatto inserisce Anthropic nella lista nera dei contratti federali, poiché l’ordine esecutivo dell’ex presidente Trump ora obbliga tutte le agenzie a cessare di utilizzare la sua intelligenza artificiale.
L’accordo di OpenAI: un precedente e un punto di confusione
La mossa del DoD contro Anthropic segue un accordo simile con OpenAI, che ha anche attirato critiche. Persino il CEO di OpenAI Sam Altman ha descritto pubblicamente l’accordo della sua azienda con il governo degli Stati Uniti come “confuso”, sottolineando la natura complessa e opaca di questi accordi.
Il CEO di Anthropic, Amodei, ha riconosciuto l’accordo e ha affermato che la società collaborerà con un periodo transitorio per il governo. Amodei si è anche scusato per la fuga di una nota interna che dettagliava la controversia.
Implicazioni: etica dell’intelligenza artificiale contro sicurezza nazionale
Questo caso evidenzia la crescente tensione tra lo sviluppo etico dell’IA e gli interessi di sicurezza nazionale. La posizione di Anthropic sottolinea un dibattito critico sui limiti dell’implementazione dell’intelligenza artificiale, in particolare nelle applicazioni militari. La volontà dell’azienda di rischiare di perdere un importante contratto piuttosto che compromettere i suoi principi solleva interrogativi su come sarà governato il futuro sviluppo dell’intelligenza artificiale.
La designazione del Dipartimento della Difesa suggerisce la volontà di dare priorità agli obiettivi di sicurezza nazionale rispetto alle preferenze dei fornitori, creando un precedente che potrebbe influenzare altre società di intelligenza artificiale.
“Anthropic fornirà i nostri modelli al Dipartimento della Guerra e alla comunità di sicurezza nazionale… per tutto il tempo necessario”, ha affermato Amodei, segnalando un compromesso pragmatico nonostante la sfida legale in corso.
La controversia è lungi dall’essere conclusa, la battaglia legale probabilmente si svolgerà nei prossimi mesi. Questo caso costituirà un precedente significativo sul modo in cui le aziende di intelligenza artificiale gestiscono i loro rapporti con i governi che richiedono l’accesso alla tecnologia avanzata.
