W Internecie szybko zyskuje na popularności niepokojący trend: wykorzystywanie generowanych przez sztuczną inteligencję deepfakes do szerzenia dezinformacji, wzmacniania stereotypów i wykorzystywania twórców czarnych treści. Sprawa Livy Rose Henderson, kierowcy dostawczego DoorDash, która zarzuciła napaść na tle seksualnym, stała się centrum tego nadużycia, gdy w Internecie pojawiły się wygenerowane przez sztuczną inteligencję filmy przedstawiające twarz czarnej dziennikarki Myrlie LaRose, aby zdyskredytować jej twierdzenia i uzasadnić jej zwolnienie.
Powstanie cyfrowego grymasu
Zjawisko to, nazwane przez krytyczkę kultury Lauren Michelle Jackson „cyfrowym grymasem”, polega na zawłaszczaniu czarnych obrazów, slangu i kultury w treściach internetowych. Potwierdzają to platformy takie jak TikTok, gdzie krótkie filmy i narzędzia sztucznej inteligencji, takie jak Sora 2, ułatwiają użytkownikom innym niż czarnoskóre przyjmowanie osób rasistowskich za pomocą deepfakes. Jedno z kont botów, uimuthavohaj0g, opublikowało wygenerowane przez sztuczną inteligencję filmy przedstawiające twarz LaRose, powtarzając argumenty bagatelizujące zarzuty Henderson i uzasadniające decyzję DoorDash o jej zwolnieniu.
Studium przypadku DoorDash
Henderson została zwolniona za publikowanie informacji o klientach w Internecie, ale reakcja nasiliła się, gdy filmy generowane przez sztuczną inteligencję fałszywie oskarżały ją o naruszenie prywatności. TikTok usunął oryginalny materiał, a następnie wielokrotnie usuwał ponownie przesłane materiały, co doprowadziło do kilku ostrzeżeń na jej konto. W międzyczasie mnożyły się deepfake przedstawiające twarze LaRose i innych twórców treści dla czarnoskórych, szerząc dezinformację i wzmacniając szkodliwe stereotypy. Twarz LaRose została wykorzystana w co najmniej 19 filmach wygenerowanych przez sztuczną inteligencję, a TikTok początkowo odmawiał ich usunięcia, dopóki publiczne oburzenie nie zmusiło platformy do podjęcia działań.
Treści generowane przez sztuczną inteligencję napędzają dezinformację
Problem wykracza poza przypadek DoorDash. Treści generowane przez sztuczną inteligencję były wykorzystywane do rozpowszechniania fałszywych narracji na temat społeczności Czarnych, w tym sfabrykowanych materiałów filmowych przedstawiających czarne kobiety skarżące się na zasiłki dla bezrobotnych. Sora 2 należąca do OpenAI, pomimo swojej polityki przeciwdziałającej podszywaniu się, przyczyniła się do rasistowskich, seksistowskich i klasowych uprzedzeń. Rzecznik OpenAI Nico Felix powiedział, że firma pracuje nad wykrywaniem i usuwaniem takich treści, ale egzekwowanie przepisów pozostaje wyzwaniem.
Odpowiedzi prawne i regulacyjne
Niektórzy twórcy treści o tematyce czarnoskórej, np. Zaria Imani, pozywają na podstawie praw autorskich. Ustawa Take It Down, podpisana w maju 2025 r., penalizuje bezsensowną dystrybucję intymnych zdjęć, w tym deepfakes generowanych przez sztuczną inteligencję. Jednak grupy zwolenników, takie jak Data for Black Lives, argumentują, że potrzebne są zmiany systemowe, aby pociągnąć firmy technologiczne do odpowiedzialności.
“Chodzi o wykorzystywanie brutalnych stereotypów dotyczących Czarnych do celów politycznych. To inżynieria społeczna mająca na celu zwiększenie zaangażowania i wywołanie chaosu” – mówi Yeshimabeit Milner, założyciel Data for Black Lives.
Przyszłość odpowiedzialności za sztuczną inteligencję
Rozpowszechnianie się fałszywych fałszywych informacji generowanych przez sztuczną inteligencję, których celem są twórcy czarnych treści, podkreśla krytyczną potrzebę wprowadzenia bardziej rygorystycznych przepisów i egzekwowania prawa. Bez wspólnych działań i interwencji legislacyjnej rozpowszechnianie dezinformacji i wyzysku będzie kontynuowane. Krajobraz cyfrowy wymaga nie tylko rozwiązań technologicznych, ale także zasadniczej zmiany w sposobie, w jaki platformy radzą sobie z uprzedzeniami algorytmicznymi i chronią marginalizowane społeczności.






















