California exige estándares de seguridad y privacidad de IA para contratistas estatales

7

El gobernador de California, Gavin Newsom, emitió una orden ejecutiva que obliga a las empresas de inteligencia artificial (IA) que trabajan con el estado a adoptar estrictos protocolos de seguridad y privacidad. Esta medida establece a California como la primera jurisdicción importante en hacer cumplir tales medidas directamente a los proveedores de IA.

Contexto y justificación

La orden tiene como objetivo mitigar los riesgos asociados con el uso indebido de la IA, incluidos daños al consumidor, violaciones de la privacidad y explotación incontrolada de la tecnología. La oficina de Newsom enfatizó que estas directrices garantizarán el desarrollo y la implementación responsable de los sistemas de inteligencia artificial utilizados en los contratos estatales. Esta acción llega en un momento en que la rápida expansión de la IA genera preocupaciones sobre su potencial de abuso.

El momento es particularmente notable dado el debate federal en curso sobre la regulación de la IA. La administración Trump ha argumentado en contra de la interferencia a nivel estatal, alegando que un panorama regulatorio fragmentado obstaculizaría la competitividad de Estados Unidos en la carrera global de IA.

Disposiciones e implicaciones clave

La orden ejecutiva exige que las empresas de IA:

  • Desarrollar e implementar medidas de seguridad sólidas para prevenir daños.
  • Establecer políticas de privacidad claras para proteger los datos de los consumidores.
  • Adherirse a estándares rigurosos en el diseño y operación de sus sistemas de IA.

Esto podría afectar significativamente la forma en que se implementa la IA en California, obligando a las empresas a priorizar las consideraciones éticas además de las ganancias. La medida también sienta un precedente para otros estados que estén considerando regulaciones similares.

Enfoques federales versus estatales

La Casa Blanca dio a conocer recientemente su propio marco de políticas de IA, que aborda cuestiones como el desplazamiento de empleos, la infracción de derechos de autor y la protección de poblaciones vulnerables. Sin embargo, los críticos argumentan que el enfoque federal es demasiado indulgente y permite un crecimiento continuo y desenfrenado de la industria de la IA. La orden de Newsom representa una postura más agresiva, afirmando la autoridad estatal para regular la IA directamente.

Respuesta de la industria y precedentes legales

La política llega en medio de un mayor escrutinio de las prácticas de IA. En particular, Ziff Davis (empresa matriz de CNET) presentó una demanda contra OpenAI en 2025, alegando infracción de derechos de autor en sus datos de entrenamiento de IA. Esto demuestra los crecientes desafíos legales a la dependencia de la IA de material protegido por derechos de autor y la necesidad de protecciones de propiedad intelectual más claras.

La orden ejecutiva de California señala un cambio hacia una mayor responsabilidad en el sector de la IA. Al imponer estándares obligatorios a los contratistas estatales, Newsom está estableciendo una expectativa clara: la innovación en IA no debe realizarse a expensas de la seguridad y la privacidad públicas.