Gubernur California Gavin Newsom mengeluarkan perintah eksekutif pada hari Senin yang akan mewajibkan perusahaan kecerdasan buatan (AI) yang mencari kontrak negara untuk menunjukkan standar keselamatan dan privasi yang kuat. Langkah ini menandai langkah signifikan dalam regulasi AI di tingkat negara bagian, dan menjadi preseden baru mengenai cara pemerintah berinteraksi dengan teknologi AI yang berkembang pesat.
Memeriksa Kontraktor AI
Berdasarkan peraturan baru, perusahaan yang bersaing untuk urusan negara harus mengungkapkan kebijakan keselamatan dan privasi AI mereka terlebih dahulu. California akan meneliti kebijakan-kebijakan ini untuk memastikan kebijakan-kebijakan tersebut secara aktif mencegah eksploitasi, termasuk distribusi konten ilegal seperti materi pelecehan seksual terhadap anak-anak. Negara juga akan menilai apakah sistem AI digunakan untuk pengawasan atau sensor yang tidak beralasan, dan apakah pengembang mengambil langkah-langkah untuk mengurangi bias dalam algoritma mereka.
Ini bukan hanya tentang mencentang kotak. Proses pemeriksaan ini sangat penting karena sistem AI semakin banyak diterapkan di area sensitif, dan bias atau pelanggaran privasi yang tidak terkendali dapat menimbulkan konsekuensi yang luas. Tanpa transparansi, risiko penyalahgunaan akan meningkat secara signifikan.
Kemerdekaan dari Standar Federal
California tidak akan secara otomatis tunduk pada penilaian federal terhadap perusahaan AI. Bahkan jika Pentagon menetapkan suatu perusahaan sebagai risiko rantai pasokan (seperti yang baru-baru ini terjadi pada startup AI Anthropic), negara bagian akan melakukan evaluasi independennya sendiri. Langkah ini menandakan kesediaan California untuk mengambil langkah sendiri dalam pengawasan AI, meskipun hal tersebut menyimpang dari kebijakan federal.
Perselisihan Pentagon dengan Anthropic adalah salah satu contohnya. Departemen Pertahanan memutuskan hubungan dengan perusahaan AI tersebut setelah Anthropic menolak mengizinkan penggunaan modelnya untuk pengawasan domestik massal atau penyebaran senjata otonom. Hal ini menggarisbawahi ketegangan mendasar antara penerapan AI pada militer secara agresif dan pertimbangan etis.
Memberi Watermark pada Konten Buatan AI
Perintah tersebut juga mengarahkan lembaga-lembaga negara untuk memberi tanda air pada setiap video yang dibuat atau dimanipulasi oleh AI yang mereka produksi. Langkah ini bertujuan untuk memerangi misinformasi dengan memudahkan masyarakat membedakan antara konten asli dan konten buatan AI. Dengan memberi label pada konten AI yang diproduksi negara, California mengakui semakin besarnya ancaman deepfake dan media sintetis.
Ini merupakan langkah proaktif dalam membangun kepercayaan terhadap media digital. Maraknya citra yang dihasilkan AI berarti konsumen memerlukan alat yang andal untuk memverifikasi keaslian, dan watermarking adalah salah satu alat tersebut.
Perintah eksekutif California lebih dari sekedar perubahan birokrasi; itu adalah pernyataan bahwa inovasi AI harus bertanggung jawab. Negara bagian ini mengisyaratkan niatnya untuk menetapkan ketentuan bagaimana AI beroperasi di wilayahnya, dengan memprioritaskan keselamatan, privasi, dan transparansi dibandingkan penerapan yang tidak terkendali.





















