La Californie impose des contrôles de sécurité de l’IA aux entrepreneurs de l’État

Le gouverneur de Californie, Gavin Newsom, a publié lundi un décret exigeant que les entreprises d’intelligence artificielle (IA) cherchant à obtenir des contrats avec l’État fassent preuve de normes strictes en matière de sécurité et de confidentialité. Cette décision marque une étape importante dans la réglementation de l’IA au niveau des États, créant un nouveau précédent dans la manière dont les gouvernements interagissent avec les technologies d’IA en évolution rapide.

Vérification des entrepreneurs en IA

En vertu des nouvelles règles, les entreprises en concurrence pour les affaires de l’État doivent divulguer dès le départ leurs politiques en matière de sécurité et de confidentialité en matière d’IA. La Californie examinera ces politiques pour s’assurer qu’elles empêchent activement l’exploitation, y compris la distribution de contenus illégaux tels que des matériels pédopornographiques. L’État évaluera également si les systèmes d’IA sont utilisés à des fins de surveillance ou de censure injustifiées, et si les développeurs prennent des mesures pour atténuer les biais dans leurs algorithmes.

Il ne s’agit pas seulement de cocher des cases. Le processus de vérification est essentiel car les systèmes d’IA sont de plus en plus déployés dans des zones sensibles, et les préjugés non contrôlés ou les violations de la vie privée peuvent avoir des conséquences considérables. Sans transparence, le risque d’abus augmente considérablement.

Indépendance par rapport aux normes fédérales

La Californie ne s’en remettra pas automatiquement aux évaluations fédérales des entreprises d’IA. Même si le Pentagone désigne une entreprise comme présentant un risque pour la chaîne d’approvisionnement (comme cela s’est récemment produit avec la start-up d’IA Anthropic), l’État mènera sa propre évaluation indépendante. Cette décision témoigne de la volonté de la Californie de tracer sa propre voie en matière de surveillance de l’IA, même si elle s’écarte de la politique fédérale.

Le différend entre le Pentagone et Anthropic en est un bon exemple. Le ministère de la Défense a rompu ses liens avec la société d’IA après qu’Anthropic ait refusé d’autoriser l’utilisation de ses modèles pour la surveillance nationale de masse ou le déploiement d’armes autonomes. Cela souligne une tension fondamentale entre les applications militaires agressives de l’IA et les considérations éthiques.

Filigrane du contenu généré par l’IA

L’ordonnance ordonne également aux agences d’État de filigraner toutes les vidéos générées ou manipulées par l’IA qu’elles produisent. Cette mesure vise à lutter contre la désinformation en permettant au public de faire plus facilement la distinction entre les contenus authentiques et ceux créés par l’IA. En étiquetant le contenu d’IA produit par l’État, la Californie reconnaît la menace croissante des deepfakes et des médias synthétiques.

Il s’agit d’une étape proactive vers l’instauration de la confiance dans les médias numériques. L’essor des images générées par l’IA signifie que les consommateurs ont besoin d’outils fiables pour vérifier l’authenticité, et le filigrane est l’un de ces outils.

Le décret californien est plus qu’un simple changement bureaucratique ; c’est une déclaration selon laquelle l’innovation en IA doit être responsable. L’État signale son intention de définir les conditions dans lesquelles l’IA opère à l’intérieur de ses frontières, en donnant la priorité à la sécurité, à la confidentialité et à la transparence plutôt qu’à un déploiement incontrôlé.