El gobernador de California, Gavin Newsom, emitió el lunes una orden ejecutiva que exigirá que las empresas de inteligencia artificial (IA) que busquen contratos estatales demuestren estándares sólidos de seguridad y privacidad. Esta medida marca un paso significativo en la regulación de la IA a nivel estatal, sentando un nuevo precedente sobre cómo los gobiernos interactúan con las tecnologías de IA en rápida evolución.

Investigación de contratistas de IA

Según las nuevas reglas, las empresas que compiten por negocios estatales deben revelar por adelantado sus políticas de seguridad y privacidad de la IA. California examinará estas políticas para garantizar que prevengan activamente la explotación, incluida la distribución de contenido ilegal, como materiales de abuso sexual infantil. El estado también evaluará si los sistemas de inteligencia artificial se utilizan para vigilancia o censura injustificadas, y si los desarrolladores están tomando medidas para mitigar el sesgo en sus algoritmos.

No se trata sólo de marcar casillas. El proceso de investigación es fundamental porque los sistemas de inteligencia artificial se implementan cada vez más en áreas sensibles, y los sesgos no controlados o las violaciones de la privacidad pueden tener consecuencias de gran alcance. Sin transparencia, el riesgo de uso indebido crece sustancialmente.

Independencia de los estándares federales

California no se someterá automáticamente a las evaluaciones federales de las empresas de IA. Incluso si el Pentágono designa a una empresa como un riesgo para la cadena de suministro (como sucedió recientemente con la startup de IA Anthropic), el estado llevará a cabo su propia evaluación independiente. Esta medida indica la voluntad de California de forjar su propio camino en la supervisión de la IA, incluso cuando se aparta de la política federal.

La disputa del Pentágono con Anthropic es un buen ejemplo. El Departamento de Defensa rompió lazos con la empresa de IA después de que Anthropic se negara a permitir el uso de sus modelos para vigilancia doméstica masiva o despliegue de armas autónomas. Esto subraya una tensión fundamental entre las aplicaciones militares agresivas de la IA y las consideraciones éticas.

Marca de agua en contenido generado por IA

La orden también ordena a las agencias estatales que coloquen marcas de agua en cualquier video generado o manipulado por IA que produzcan. Esta medida tiene como objetivo combatir la desinformación facilitando al público la distinción entre contenido auténtico y contenido creado por IA. Al etiquetar el contenido de IA producido por el estado, California reconoce la creciente amenaza de los deepfakes y los medios sintéticos.

Este es un paso proactivo hacia la generación de confianza en los medios digitales. El aumento de las imágenes generadas por IA significa que los consumidores necesitan herramientas confiables para verificar la autenticidad, y las marcas de agua son una de esas herramientas.

La orden ejecutiva de California es más que un simple cambio burocrático; es una declaración de que la innovación en IA debe ser responsable. El Estado está señalando su intención de establecer los términos sobre cómo opera la IA dentro de sus fronteras, priorizando la seguridad, la privacidad y la transparencia sobre el despliegue sin control.