Додому Різне AI-gegenereerde deepfakes richten zich op zwarte makers in Digital Blackface Scheme

AI-gegenereerde deepfakes richten zich op zwarte makers in Digital Blackface Scheme

Een verontrustende trend escaleert snel online: de bewapening van door AI gegenereerde deepfakes om desinformatie te verspreiden, stereotypen te versterken en zwarte makers uit te buiten. De zaak van Livie Rose Henderson, de bezorger van DoorDash die beweerde dat er sprake was van aanranding, werd het middelpunt van dit misbruik toen door AI gegenereerde video’s opdoken waarin de gelijkenis van de zwarte journaliste Mirlie Larose werd gebruikt om haar beweringen in diskrediet te brengen en haar ontslag te rechtvaardigen.

De opkomst van digitale Blackface

Het fenomeen, door cultuurcriticus Lauren Michele Jackson ‘digital blackface’ genoemd, houdt de toe-eigening van zwarte beelden, straattaal en cultuur in online-inhoud in. Dit wordt versterkt door platforms als TikTok, waar korte video- en AI-tools zoals Sora 2 het voor niet-zwarte gebruikers gemakkelijker maken om raciale persona’s over te nemen via deepfakes. Eén botaccount, uimuthavohaj0g, plaatste door AI gegenereerde video’s met het gezicht van Larose, waarbij argumenten werden nagepraat die de aantijgingen van Henderson bagatelliseerden en de beslissing van DoorDash rechtvaardigden om haar dienstverband te beëindigen.

De DoorDash-controverse als casestudy

Henderson werd ontslagen omdat ze klantinformatie online had gedeeld, maar de reactie nam toe toen door AI gegenereerde video’s haar ten onrechte betichtten van privacyschendingen. TikTok verwijderde de originele beelden en verwijderde vervolgens herhaaldelijk opnieuw geüploade beelden, wat leidde tot meerdere waarschuwingen tegen haar account. Ondertussen circuleerden deepfakes waarin het gezicht van Larose en dat van andere zwarte makers werd gebruikt, waardoor verkeerde informatie werd verspreid en schadelijke stereotypen werden versterkt. De gelijkenis van Larose werd gebruikt in ten minste 19 door AI gegenereerde video’s, waarbij TikTok aanvankelijk weigerde deze te verwijderen totdat de publieke verontwaardiging tot actie leidde.

Door AI gegenereerde inhoud zorgt voor verkeerde informatie

Het probleem reikt verder dan de DoorDash-zaak. Door AI gegenereerde inhoud is gebruikt om valse verhalen over zwarte gemeenschappen te verspreiden, waaronder verzonnen clips van zwarte vrouwen die klagen over sociale uitkeringen. OpenAI’s Sora 2 heeft, ondanks beleid tegen nabootsing van identiteit, de verspreiding van racistische, seksistische en classistische vooroordelen mogelijk gemaakt. OpenAI-woordvoerder Niko Felix verklaarde dat het bedrijf eraan werkt dergelijke inhoud op te sporen en te verwijderen, maar dat handhaving een uitdaging blijft.

Juridische en regelgevende reacties

Sommige makers van zwarte inhoud, zoals Zaria Imani, ondernemen juridische stappen op grond van wetten inzake inbreuk op het auteursrecht. De Take It Down Act, ondertekend in mei 2025, criminaliseert de verspreiding van niet-consensuele intieme beelden, inclusief door AI gegenereerde deepfakes. Belangengroepen als Data for Black Lives beweren echter dat systemische verandering noodzakelijk is om technologiebedrijven verantwoordelijk te houden.

“Dit gaat over het benutten van gewelddadige stereotypen van zwarte mensen voor politieke agenda’s. Het is social engineering om betrokkenheid en chaos te stimuleren”, zegt Yeshimabeit Milner, oprichter van Data for Black Lives.

De toekomst van AI-verantwoording

De opkomst van door AI gegenereerde deepfakes gericht op zwarte makers onderstreept een cruciale behoefte aan strengere regelgeving en handhaving. Zonder collectieve actie en wetgevende tussenkomst zal de verspreiding van desinformatie en uitbuiting doorgaan. Het digitale landschap vereist niet alleen technologische oplossingen, maar ook een fundamentele verandering in de manier waarop platforms algoritmische vooroordelen aanpakken en gemarginaliseerde gemeenschappen beschermen.

Exit mobile version