Gubernator Kalifornii Gavin Newsom podpisał w poniedziałek zarządzenie wykonawcze wymagające od firm zajmujących się sztuczną inteligencją (AI) ubiegających się o kontrakty rządowe wykazania się wysokimi standardami bezpieczeństwa i prywatności. Posunięcie to stanowi kamień milowy w regulacjach dotyczących sztucznej inteligencji na szczeblu stanowym, ustanawiając nowy precedens w zakresie możliwości zaangażowania rządów w szybko rozwijające się technologie sztucznej inteligencji.

Przegląd wykonawców AI

Zgodnie z nowymi przepisami firmy biorące udział w przetargach rządowych muszą z wyprzedzeniem przedstawić swoją politykę bezpieczeństwa AI i prywatności. Kalifornia dokładnie sprawdzi te zasady, aby mieć pewność, że aktywnie zapobiegają nadużyciom, w tym rozpowszechnianiu nielegalnych treści, takich jak materiały przedstawiające wykorzystywanie seksualne dzieci. Państwo oceni również, czy systemy sztucznej inteligencji są wykorzystywane do nieuzasadnionego nadzoru lub cenzury oraz czy programiści podejmują kroki w celu złagodzenia stronniczości w swoich algorytmach.

To nie jest tylko formalność. Proces weryfikacji ma kluczowe znaczenie, ponieważ systemy sztucznej inteligencji są coraz częściej wdrażane we wrażliwych obszarach, a niekontrolowane uprzedzenia lub naruszenia prywatności mogą mieć daleko idące konsekwencje. Bez przejrzystości ryzyko nadużyć dramatycznie wzrasta.

Niezależność od standardów federalnych

Kalifornia nie będzie automatycznie polegać na federalnych ocenach firm zajmujących się sztuczną inteligencją. Nawet jeśli Pentagon wskaże jakąś firmę jako stwarzającą ryzyko w łańcuchu dostaw (jak ostatnio miało to miejsce w przypadku Anthropic), państwo przeprowadzi własną, niezależną ocenę. Posunięcie to sygnalizuje gotowość Kalifornii do pójścia własną drogą w zakresie nadzoru nad sztuczną inteligencją, nawet jeśli jest to sprzeczne z polityką federalną.

Najlepszym przykładem jest spór Pentagonu z Anthropic. Departament Obrony zerwał współpracę z firmą po tym, jak firma Anthropic odmówiła zezwolenia na wykorzystanie jej modeli do masowego nadzoru krajowego lub rozmieszczania broni autonomicznej. Podkreśla to zasadnicze napięcie między agresywnymi zastosowaniami AI w celach wojskowych a względami etycznymi.

Znaki wodne dla treści generowanych przez sztuczną inteligencję

Nakaz nakazuje także agencjom rządowym umieszczanie znaku wodnego na każdym filmie utworzonym lub przetworzonym przy użyciu sztucznej inteligencji. Środek ten ma na celu zwalczanie dezinformacji poprzez ułatwienie społeczeństwu ustalenia autentyczności treści. Świętując treści sztucznej inteligencji produkowane przez rząd, Kalifornia dostrzega rosnące zagrożenie związane z deepfakes i mediami syntetycznymi.

Jest to proaktywny krok w stronę budowania zaufania do mediów cyfrowych. Coraz większa liczba obrazów generowanych przez sztuczną inteligencję oznacza, że ​​konsumenci potrzebują niezawodnych narzędzi uwierzytelniających, a jednym z takich narzędzi są znaki wodne.

Zarządzenie wykonawcze Kalifornii to nie tylko zmiana biurokratyczna; jest to stwierdzenie, że innowacje w zakresie sztucznej inteligencji muszą być odpowiedzialne. Państwo sygnalizuje zamiar stworzenia warunków działania sztucznej inteligencji w swoich granicach, stawiając bezpieczeństwo, prywatność i przejrzystość ponad niekontrolowane wdrażanie.