O governador da Califórnia, Gavin Newsom, emitiu uma ordem executiva na segunda-feira que exigirá que as empresas de inteligência artificial (IA) que buscam contratos estaduais demonstrem padrões robustos de segurança e privacidade. Esta medida marca um passo significativo na regulamentação da IA ​​a nível estatal, estabelecendo um novo precedente sobre a forma como os governos interagem com as tecnologias de IA em rápida evolução.

Verificando empreiteiros de IA

De acordo com as novas regras, as empresas que competem por negócios estatais devem divulgar antecipadamente as suas políticas de segurança e privacidade da IA. A Califórnia examinará estas políticas para garantir que previnem ativamente a exploração, incluindo a distribuição de conteúdos ilegais, como materiais de abuso sexual infantil. O estado também avaliará se os sistemas de IA são usados ​​para vigilância ou censura injustificada e se os desenvolvedores estão tomando medidas para mitigar preconceitos em seus algoritmos.

Não se trata apenas de marcar caixas. O processo de verificação é fundamental porque os sistemas de IA são cada vez mais implantados em áreas sensíveis e preconceitos não controlados ou violações de privacidade podem ter consequências de longo alcance. Sem transparência, o risco de utilização indevida aumenta substancialmente.

Independência dos padrões federais

A Califórnia não cederá automaticamente às avaliações federais de empresas de IA. Mesmo que o Pentágono designe uma empresa como um risco na cadeia de abastecimento (como aconteceu recentemente com a startup de IA Anthropic), o estado conduzirá a sua própria avaliação independente. Esta medida sinaliza a vontade da Califórnia de traçar o seu próprio caminho na supervisão da IA, mesmo quando diverge da política federal.

A disputa do Pentágono com a Anthropic é um exemplo disso. O Departamento de Defesa cortou relações com a empresa de IA depois que a Anthropic se recusou a permitir o uso de seus modelos para vigilância doméstica em massa ou implantação autônoma de armas. Isto sublinha uma tensão fundamental entre as aplicações militares agressivas da IA ​​e as considerações éticas.

Marca d’água em conteúdo gerado por IA

A ordem também orienta as agências estaduais a colocarem marca d’água em quaisquer vídeos gerados ou manipulados por IA que produzam. Esta medida visa combater a desinformação, tornando mais fácil para o público distinguir entre conteúdos autênticos e conteúdos criados por IA. Ao rotular o conteúdo de IA produzido pelo estado, a Califórnia reconhece a crescente ameaça dos deepfakes e da mídia sintética.

Este é um passo proativo para construir confiança na mídia digital. A ascensão das imagens geradas por IA significa que os consumidores precisam de ferramentas confiáveis ​​para verificar a autenticidade, e a marca d’água é uma dessas ferramentas.

A ordem executiva da Califórnia é mais do que apenas uma mudança burocrática; é uma afirmação de que a inovação em IA deve ser responsável. O estado está a sinalizar a sua intenção de definir os termos de como a IA opera dentro das suas fronteiras, priorizando a segurança, a privacidade e a transparência em vez da implantação não controlada.