O governador da Califórnia, Gavin Newsom, emitiu uma ordem executiva obrigando as empresas de inteligência artificial (IA) que trabalham com o estado a adotar protocolos rígidos de segurança e privacidade. Esta mudança estabelece a Califórnia como a primeira grande jurisdição a aplicar tais medidas diretamente aos fornecedores de IA.
Contexto e justificativa
A ordem visa mitigar os riscos associados ao uso indevido da IA – incluindo danos ao consumidor, violações de privacidade e exploração desenfreada da tecnologia. O escritório de Newsom enfatizou que essas diretrizes garantirão o desenvolvimento e implantação responsáveis de sistemas de IA usados em contratos estaduais. Esta ação surge num momento em que a rápida expansão da IA levanta preocupações sobre o seu potencial de abuso.
O momento é particularmente notável dado o debate federal em curso sobre a regulamentação da IA. A administração Trump argumentou contra a interferência a nível estatal, alegando que um cenário regulamentar fragmentado prejudicaria a competitividade dos EUA na corrida global à IA.
Principais disposições e implicações
A ordem executiva exige que as empresas de IA:
- Desenvolver e implementar medidas de segurança robustas para prevenir danos.
- Estabeleça políticas de privacidade claras para proteger os dados do consumidor.
- Aderir a padrões rigorosos no design e operação de seus sistemas de IA.
Isto poderia impactar significativamente a forma como a IA é implantada na Califórnia, forçando as empresas a priorizar considerações éticas juntamente com o lucro. A medida também abre um precedente para outros estados considerarem regulamentações semelhantes.
Abordagens Federais vs. Estaduais
A Casa Branca revelou recentemente o seu próprio quadro político de IA, abordando questões como a deslocação de empregos, a violação de direitos de autor e a protecção de populações vulneráveis. No entanto, os críticos argumentam que a abordagem federal é demasiado branda, permitindo um crescimento contínuo e descontrolado na indústria da IA. A ordem de Newsom representa uma postura mais agressiva, afirmando a autoridade estatal para regular diretamente a IA.
Resposta da Indústria e Precedentes Legais
A política chega em meio a um escrutínio intensificado das práticas de IA. Notavelmente, Ziff Davis (empresa controladora da CNET) entrou com uma ação judicial contra a OpenAI em 2025, alegando violação de direitos autorais em seus dados de treinamento de IA. Isto demonstra os crescentes desafios legais à dependência da IA em material protegido por direitos de autor e à necessidade de protecções mais claras à propriedade intelectual.
A ordem executiva da Califórnia assinala uma mudança no sentido de uma maior responsabilização no setor da IA. Ao impor normas obrigatórias aos contratantes estatais, Newsom está a estabelecer uma expectativa clara: a inovação da IA não deve ocorrer à custa da segurança pública e da privacidade.






























