Na internetu se rychle prosazuje znepokojivý trend: používání deepfakes generovaných umělou inteligencí k šíření dezinformací, posilování stereotypů a zneužívání tvůrců černého obsahu. Případ Livy Rose Hendersonové, řidičky dodávky DoorDash, která tvrdila sexuální napadení, se stal středem tohoto zneužívání, když se na internetu objevila videa s tváří černé novinářky Myrlie LaRose vytvořená AI, aby zdiskreditovala její tvrzení a ospravedlnila její propuštění.
Vzestup digitální grimasy
Tento fenomén, který kulturní kritička Lauren Michelle Jackson nazvala „digitální grimasa“, zahrnuje přivlastňování si černého obrazu, slangu a kultury v online obsahu. To je umocněno platformami jako TikTok, kde krátká videa a nástroje umělé inteligence, jako je Sora 2, usnadňují nečernošským uživatelům převzít rasové persony prostřednictvím deepfakes. Jeden účet robota, uimuthavohaj0g, zveřejnil videa tváře LaRose vytvořená umělou inteligencí a opakovala argumenty, které zlehčovaly Hendersonova obvinění a ospravedlňovaly rozhodnutí DoorDash vyhodit ji.
Případová studie DoorDash
Hendersonová byla vyhozena za zveřejňování informací o zákaznících online, ale odpor zesílil, když ji videa vytvořená umělou inteligencí falešně obvinila z porušování soukromí. TikTok smazal původní záběry a poté opakovaně odstraňoval znovu nahraná videa, což vedlo k několika stávkám proti jejímu účtu. Mezitím se množily deepfakes s tvářemi LaRose a dalších tvůrců černého obsahu, šířících dezinformace a posilování škodlivých stereotypů. LaRoseova tvář byla použita v nejméně 19 videích generovaných umělou inteligencí, přičemž TikTok je zpočátku odmítl odstranit, dokud veřejná bouře nepřinutí platformu jednat.
Obsah generovaný AI podporuje dezinformace
Problém přesahuje případ DoorDash. Obsah generovaný umělou inteligencí byl použit k šíření falešných narativů o černošských komunitách, včetně smyšlených záběrů černošek, které si stěžovaly na podporu v nezaměstnanosti. Sora 2 od OpenAI, navzdory své politice proti napodobování identity, přispěla k rasistickým, sexistickým a třídním předsudkům. Mluvčí OpenAI Nico Felix řekl, že společnost pracuje na detekci a odstranění takového obsahu, ale vymáhání zůstává problémem.
Právní a regulační reakce
Někteří tvůrci černého obsahu, jako je Zaria Imani, žalují na základě autorských práv. Zákon Take It Down, podepsaný v květnu 2025, kriminalizuje nesouhlasné šíření intimních obrázků, včetně deepfakes generovaných umělou inteligencí. Advokační skupiny, jako je Data for Black Lives, však tvrdí, že k odpovědnosti technologických společností je zapotřebí systémových změn.
“Jde o používání násilných stereotypů o černých lidech pro politické účely. Jde o sociální inženýrství pro zvýšení angažovanosti a vytvoření chaosu,” říká Yeshimabeit Milner, zakladatel Data for Black Lives.
Budoucnost odpovědnosti AI
Šíření hlubokých padělků generovaných umělou inteligencí zaměřených na tvůrce černého obsahu zdůrazňuje zásadní potřebu přísnější regulace a vymáhání. Bez kolektivních akcí a legislativních zásahů bude šíření dezinformací a vykořisťování pokračovat. Digitální krajina vyžaduje nejen technologická řešení, ale také zásadní posun v tom, jak platformy řeší algoritmické zkreslení a chrání marginalizované komunity.






















