Lunedì il governatore della California Gavin Newsom ha emesso un ordine esecutivo che richiederà alle società di intelligenza artificiale (AI) che cercano contratti statali di dimostrare solidi standard di sicurezza e privacy. Questa mossa segna un passo significativo nella regolamentazione dell’IA a livello statale, creando un nuovo precedente per il modo in cui i governi interagiscono con le tecnologie AI in rapida evoluzione.
Controllo degli appaltatori dell’intelligenza artificiale
Secondo le nuove regole, le aziende che competono per le attività statali devono divulgare in anticipo le loro politiche sulla sicurezza e sulla privacy dell’IA. La California esaminerà attentamente queste politiche per garantire che prevengano attivamente lo sfruttamento, inclusa la distribuzione di contenuti illegali come materiali pedopornografici. Lo Stato valuterà anche se i sistemi di intelligenza artificiale vengono utilizzati per sorveglianza o censura ingiustificata e se gli sviluppatori stanno adottando misure per mitigare i pregiudizi nei loro algoritmi.
Non si tratta solo di spuntare le caselle. Il processo di verifica è fondamentale perché i sistemi di intelligenza artificiale sono sempre più utilizzati in aree sensibili e pregiudizi incontrollati o violazioni della privacy possono avere conseguenze di vasta portata. Senza trasparenza, il rischio di abusi aumenta notevolmente.
Indipendenza dagli standard federali
La California non si rimetterà automaticamente alle valutazioni federali delle società di intelligenza artificiale. Anche se il Pentagono designa un’azienda come a rischio nella catena di fornitura (come è accaduto di recente con la startup di intelligenza artificiale Anthropic), lo Stato condurrà una propria valutazione indipendente. Questa mossa segnala la volontà della California di tracciare il proprio percorso nella supervisione dell’intelligenza artificiale, anche quando diverge dalla politica federale.
La disputa del Pentagono con Anthropic è un esempio calzante. Il Dipartimento della Difesa ha interrotto i rapporti con la società di intelligenza artificiale dopo che Anthropic ha rifiutato di consentire l’uso dei suoi modelli per la sorveglianza nazionale di massa o per il dispiegamento di armi autonome. Ciò sottolinea una tensione fondamentale tra le applicazioni militari aggressive dell’IA e le considerazioni etiche.
Filigrana dei contenuti generati dall’intelligenza artificiale
L’ordine ordina inoltre alle agenzie statali di filigranare tutti i video generati o manipolati dall’intelligenza artificiale che producono. Questa misura mira a combattere la disinformazione rendendo più facile per il pubblico distinguere tra contenuti autentici e contenuti creati dall’intelligenza artificiale. Etichettando i contenuti AI prodotti dallo stato, la California riconosce la crescente minaccia dei deepfake e dei media sintetici.
Si tratta di un passo proattivo verso la creazione di fiducia nei media digitali. L’aumento delle immagini generate dall’intelligenza artificiale significa che i consumatori hanno bisogno di strumenti affidabili per verificare l’autenticità e la filigrana è uno di questi strumenti.
L’ordine esecutivo della California è più di un semplice cambiamento burocratico; è un’affermazione che l’innovazione dell’intelligenza artificiale deve essere responsabile. Lo Stato sta segnalando la sua intenzione di stabilire i termini su come opera l’intelligenza artificiale all’interno dei suoi confini, dando priorità alla sicurezza, alla privacy e alla trasparenza rispetto alla diffusione incontrollata.






















