Le gouverneur de Californie, Gavin Newsom, a publié un décret obligeant les entreprises d’intelligence artificielle (IA) travaillant avec l’État à adopter des protocoles stricts de sécurité et de confidentialité. Cette décision fait de la Californie la première grande juridiction à appliquer de telles mesures directement aux fournisseurs d’IA.
Contexte et justification
L’ordonnance vise à atténuer les risques associés à une utilisation abusive de l’IA, notamment les préjudices causés aux consommateurs, les violations de la vie privée et l’exploitation incontrôlée de la technologie. Le bureau de Newsom a souligné que ces lignes directrices garantiront le développement et le déploiement responsables des systèmes d’IA utilisés dans les contrats d’État. Cette action intervient à un moment où l’expansion rapide de l’IA suscite des inquiétudes quant à son potentiel d’abus.
Le moment est particulièrement opportun compte tenu du débat fédéral en cours sur la réglementation de l’IA. L’administration Trump s’est opposée à l’ingérence des États, affirmant qu’un paysage réglementaire fragmenté entraverait la compétitivité des États-Unis dans la course mondiale à l’IA.
Dispositions clés et implications
Le décret exige que les entreprises d’IA :
- Élaborer et mettre en œuvre des mesures de sécurité robustes pour prévenir les dommages.
- Établir des politiques de confidentialité claires pour protéger les données des consommateurs.
- Adhérer à des normes rigoureuses dans la conception et le fonctionnement de leurs systèmes d’IA.
Cela pourrait avoir un impact significatif sur la manière dont l’IA est déployée en Californie, obligeant les entreprises à donner la priorité aux considérations éthiques aux côtés du profit. Cette décision crée également un précédent pour d’autres États envisageant des réglementations similaires.
Approches fédérales et étatiques
La Maison Blanche a récemment dévoilé son propre cadre politique en matière d’IA, abordant des questions telles que la suppression d’emplois, la violation du droit d’auteur et la protection des populations vulnérables. Cependant, les critiques soutiennent que l’approche fédérale est trop indulgente, autorisant une croissance continue et incontrôlée du secteur de l’IA. L’ordonnance de Newsom représente une position plus agressive, affirmant l’autorité de l’État pour réglementer directement l’IA.
Réponse de l’industrie et précédents juridiques
Cette politique intervient dans un contexte de surveillance accrue des pratiques en matière d’IA. Notamment, Ziff Davis (société mère de CNET) a intenté une action en justice contre OpenAI en 2025, alléguant une violation du droit d’auteur sur ses données de formation en IA. Cela démontre les défis juridiques croissants liés à la dépendance d’IA à l’égard du matériel protégé par le droit d’auteur et la nécessité de protections plus claires de la propriété intellectuelle.
Le décret californien marque une évolution vers une plus grande responsabilité dans le secteur de l’IA. En imposant des normes obligatoires aux entrepreneurs de l’État, Newsom pose une attente claire : l’innovation en matière d’IA ne doit pas se faire au détriment de la sécurité publique et de la vie privée.
