De gouverneur van Californië, Gavin Newsom, heeft maandag een uitvoerend bevel uitgevaardigd dat bedrijven op het gebied van kunstmatige intelligentie (AI) die staatscontracten zoeken, verplicht om robuuste veiligheids- en privacynormen aan te tonen. Deze stap markeert een belangrijke stap in de AI-regulering op staatsniveau en schept een nieuw precedent voor de manier waarop overheden omgaan met snel evoluerende AI-technologieën.
Controle van AI-aannemers
Volgens de nieuwe regels moeten bedrijven die strijden om staatszaken vooraf hun AI-veiligheids- en privacybeleid openbaar maken. Californië zal dit beleid onder de loep nemen om ervoor te zorgen dat het actief uitbuiting voorkomt, inclusief de verspreiding van illegale inhoud zoals materiaal over seksueel misbruik van kinderen. De staat zal ook beoordelen of AI-systemen worden gebruikt voor ongerechtvaardigde surveillance of censuur, en of ontwikkelaars stappen ondernemen om vooroordelen in hun algoritmen te verminderen.
Het gaat niet alleen om het afvinken van vakjes. Het controleproces is van cruciaal belang omdat AI-systemen steeds vaker in gevoelige gebieden worden ingezet en ongecontroleerde vooroordelen of privacyschendingen verstrekkende gevolgen kunnen hebben. Zonder transparantie groeit het risico op misbruik aanzienlijk.
Onafhankelijkheid van federale normen
Californië zal zich niet automatisch onderwerpen aan federale beoordelingen van AI-bedrijven. Zelfs als het Pentagon een bedrijf aanwijst als een risico voor de toeleveringsketen (zoals onlangs gebeurde met AI-startup Anthropic), zal de staat zijn eigen onafhankelijke evaluatie uitvoeren. Deze stap duidt op de bereidheid van Californië om zijn eigen weg in te slaan op het gebied van AI-toezicht, zelfs als dit afwijkt van het federale beleid.
Het geschil tussen het Pentagon en Anthropic is hiervan een goed voorbeeld. Het ministerie van Defensie heeft de banden met het AI-bedrijf verbroken nadat Anthropic weigerde het gebruik van zijn modellen voor massale binnenlandse surveillance of de inzet van autonome wapens toe te staan. Dit onderstreept een fundamentele spanning tussen agressieve militaire toepassingen van AI en ethische overwegingen.
Door AI gegenereerde inhoud van een watermerk voorzien
Het bevel geeft overheidsinstanties ook de opdracht om alle door AI gegenereerde of gemanipuleerde video’s die zij produceren van een watermerk te voorzien. Deze maatregel is gericht op het bestrijden van desinformatie door het voor het publiek gemakkelijker te maken onderscheid te maken tussen authentieke en door AI gecreëerde inhoud. Door staatsgeproduceerde AI-inhoud te labelen erkent Californië de groeiende dreiging van deepfakes en synthetische media.
Dit is een proactieve stap in de richting van het opbouwen van vertrouwen in digitale media. De opkomst van door AI gegenereerde beelden betekent dat consumenten betrouwbare tools nodig hebben om de authenticiteit te verifiëren, en watermerken is zo’n tool.
Het uitvoerende bevel van Californië is meer dan alleen een bureaucratische verandering; het is een statement dat AI-innovatie verantwoordelijk moet zijn. De staat maakt zijn voornemen kenbaar om de voorwaarden vast te stellen voor de manier waarop AI binnen zijn grenzen opereert, waarbij veiligheid, privacy en transparantie prioriteit krijgen boven ongecontroleerde inzet.
