Sebuah tren yang meresahkan meningkat dengan cepat di dunia maya: penggunaan deepfake yang dihasilkan oleh AI untuk menyebarkan informasi yang salah, memperkuat stereotip, dan mengeksploitasi pencipta kulit hitam. Kasus Livie Rose Henderson, pengemudi pengantaran DoorDash yang diduga melakukan pelecehan seksual, menjadi titik fokus pelecehan ini ketika video yang dibuat oleh AI muncul dengan menggunakan kemiripan dengan jurnalis kulit hitam Mirlie Larose untuk mendiskreditkan klaimnya dan membenarkan pemecatannya.

Kebangkitan Wajah Hitam Digital

Fenomena ini, yang disebut “wajah hitam digital” oleh kritikus budaya Lauren Michele Jackson, melibatkan penggunaan citra, bahasa gaul, dan budaya Kulit Hitam dalam konten online. Hal ini diperkuat oleh platform seperti TikTok, di mana video pendek dan alat AI seperti Sora 2 memudahkan pengguna non-kulit hitam untuk mengadopsi persona rasial melalui deepfake. Salah satu akun bot, uimuthavohaj0g, memposting video yang dibuat oleh AI menggunakan wajah Larose, menirukan argumen yang meminimalkan tuduhan Henderson dan membenarkan keputusan DoorDash untuk memberhentikan pekerjaannya.

Kontroversi DoorDash sebagai Studi Kasus

Henderson dipecat karena membagikan informasi pelanggan secara online, namun reaksi negatifnya semakin meningkat ketika video yang dibuat oleh AI secara salah menuduhnya melakukan pelanggaran privasi. TikTok menghapus rekaman aslinya, lalu berulang kali menghapus unggahan ulang, yang menyebabkan beberapa teguran terhadap akunnya. Sementara itu, deepfake yang menggunakan wajah Larose dan pencipta kulit hitam lainnya beredar, menyebarkan informasi yang salah dan memperkuat stereotip yang merugikan. Kemiripan Larose digunakan di setidaknya 19 video yang dibuat oleh AI, dan TikTok awalnya menolak untuk menghapusnya hingga protes publik memaksa tindakan tersebut.

Konten Buatan AI Memicu Misinformasi

Masalahnya melampaui kasus DoorDash. Konten yang dibuat oleh AI telah digunakan untuk menyebarkan narasi palsu tentang komunitas kulit hitam, termasuk klip palsu yang menampilkan perempuan kulit hitam yang mengeluh tentang tunjangan kesejahteraan. Sora 2 OpenAI, meskipun ada kebijakan yang melarang peniruan identitas, telah memfasilitasi berkembangnya bias rasis, seksis, dan klasis. Juru bicara OpenAI Niko Felix menyatakan bahwa perusahaan sedang berupaya mendeteksi dan menghapus konten tersebut, namun penegakan hukum masih menjadi tantangan.

Tanggapan Hukum dan Peraturan

Beberapa pembuat konten berkulit hitam, seperti Zaria Imani, sedang menempuh tindakan hukum berdasarkan undang-undang pelanggaran hak cipta. Take It Down Act, yang ditandatangani pada Mei 2025, mengkriminalisasi distribusi gambar intim non-konsensual, termasuk deepfake yang dibuat oleh AI. Namun, kelompok advokasi seperti Data for Black Lives berpendapat bahwa perubahan sistemik diperlukan untuk menjaga akuntabilitas perusahaan teknologi.

“Ini tentang memanfaatkan stereotip kekerasan orang kulit hitam untuk agenda politik. Ini adalah rekayasa sosial untuk mendorong keterlibatan dan kekacauan,” kata Yeshimabeit Milner, pendiri Data for Black Lives.

Masa Depan Akuntabilitas AI

Maraknya deepfake buatan AI yang menyasar kreator kulit hitam menyoroti pentingnya regulasi dan penegakan hukum yang lebih kuat. Tanpa tindakan kolektif dan intervensi legislatif, penyebaran informasi yang salah dan eksploitasi akan terus berlanjut. Lanskap digital tidak hanya membutuhkan solusi teknologi namun juga perubahan mendasar dalam cara platform mengatasi bias algoritmik dan melindungi komunitas yang terpinggirkan.