Il governatore della California Gavin Newsom ha emesso un ordine esecutivo che obbliga le società di intelligenza artificiale (AI) che collaborano con lo stato ad adottare rigorosi protocolli di sicurezza e privacy. Questa mossa fa della California la prima grande giurisdizione ad applicare tali misure direttamente ai fornitori di intelligenza artificiale.
Contesto e motivazione
L’ordine mira a mitigare i rischi associati all’uso improprio dell’IA, inclusi danni ai consumatori, violazioni della privacy e sfruttamento incontrollato della tecnologia. L’ufficio di Newsom ha sottolineato che queste linee guida garantiranno lo sviluppo e l’implementazione responsabili dei sistemi di intelligenza artificiale utilizzati nei contratti statali. Questa azione arriva in un momento in cui la rapida espansione dell’intelligenza artificiale solleva preoccupazioni sul suo potenziale abuso.
La tempistica è particolarmente notevole dato il dibattito federale in corso sulla regolamentazione dell’IA. L’amministrazione Trump si è espressa contro le interferenze a livello statale, sostenendo che un panorama normativo frammentato ostacolerebbe la competitività degli Stati Uniti nella corsa globale all’intelligenza artificiale.
Disposizioni chiave e implicazioni
L’ordine esecutivo impone alle società di intelligenza artificiale di:
- Sviluppare e implementare solide misure di sicurezza per prevenire danni.
- Stabilire chiare politiche sulla privacy per proteggere i dati dei consumatori.
- Aderire a standard rigorosi nella progettazione e nel funzionamento dei propri sistemi di intelligenza artificiale.
Ciò potrebbe avere un impatto significativo sul modo in cui l’intelligenza artificiale viene implementata in California, costringendo le aziende a dare priorità alle considerazioni etiche oltre al profitto. La mossa costituisce anche un precedente per altri stati che considerano normative simili.
Approcci federali e statali
La Casa Bianca ha recentemente presentato il proprio quadro politico sull’intelligenza artificiale, affrontando questioni come lo spostamento di posti di lavoro, la violazione del copyright e la protezione delle popolazioni vulnerabili. Tuttavia, i critici sostengono che l’approccio federale è troppo indulgente e consente una crescita continua e incontrollata del settore dell’intelligenza artificiale. L’ordine di Newsom rappresenta una posizione più aggressiva, affermando l’autorità statale di regolamentare direttamente l’intelligenza artificiale.
Risposta del settore e precedenti legali
La politica arriva nel mezzo di un controllo approfondito delle pratiche di intelligenza artificiale. In particolare, Ziff Davis (società madre di CNET) ha intentato una causa contro OpenAI nel 2025, presunta violazione del copyright nei suoi dati di addestramento sull’intelligenza artificiale. Ciò dimostra le crescenti sfide legali alla dipendenza dell’intelligenza artificiale da materiale protetto da copyright e la necessità di protezioni più chiare della proprietà intellettuale.
L’ordine esecutivo della California segnala uno spostamento verso una maggiore responsabilità nel settore dell’intelligenza artificiale. Imponendo standard obbligatori agli appaltatori statali, Newsom sta definendo una chiara aspettativa: l’innovazione dell’intelligenza artificiale non deve andare a scapito della sicurezza pubblica e della privacy.
