Una tendenza inquietante si sta rapidamente diffondendo online: l’utilizzo come arma dei deepfake generati dall’intelligenza artificiale per diffondere disinformazione, rafforzare gli stereotipi e sfruttare i creatori neri. Il caso di Livie Rose Henderson, l’autista delle consegne di DoorDash che ha denunciato un’aggressione sessuale, è diventato un punto focale di questo abuso quando sono emersi video generati dall’intelligenza artificiale utilizzando le sembianze della giornalista nera Mirlie Larose per screditare le sue affermazioni e giustificare il suo licenziamento.
L’ascesa del Blackface digitale
Il fenomeno, definito “digital blackface” dal critico culturale Lauren Michele Jackson, comporta l’appropriazione di immagini, slang e cultura neri nei contenuti online. Ciò è amplificato da piattaforme come TikTok, dove video in formato breve e strumenti di intelligenza artificiale come Sora 2 rendono più semplice per gli utenti non neri adottare personaggi razzializzati attraverso i deepfake. Un account bot, uimuthavohaj0g, ha pubblicato video generati dall’intelligenza artificiale utilizzando il volto di Larose, ripetendo a pappagallo argomentazioni che minimizzavano le accuse di Henderson e giustificavano la decisione di DoorDash di licenziare.
La controversia DoorDash come caso di studio
Henderson è stata licenziata per aver condiviso informazioni sui clienti online, ma la reazione si è intensificata quando i video generati dall’intelligenza artificiale l’hanno falsamente implicata in violazioni della privacy. TikTok ha rimosso il filmato originale, quindi ha eliminato ripetutamente i ricaricamenti, provocando numerosi avvertimenti contro il suo account. Nel frattempo, circolavano deepfake che utilizzavano il volto di Larose e quello di altri creatori neri, diffondendo disinformazione e rafforzando stereotipi dannosi. La somiglianza di Larose è stata utilizzata in almeno 19 video generati dall’intelligenza artificiale, con TikTok inizialmente che si rifiutava di rimuoverli fino a quando la protesta pubblica non forzava un’azione.
I contenuti generati dall’intelligenza artificiale alimentano la disinformazione
Il problema si estende oltre il caso DoorDash. I contenuti generati dall’intelligenza artificiale sono stati utilizzati per diffondere false narrazioni sulle comunità nere, inclusi clip inventati di donne nere che si lamentano dei benefici sociali. Sora 2 di OpenAI, nonostante le politiche contro l’imitazione, ha facilitato la proliferazione di pregiudizi razzisti, sessisti e classisti. Il portavoce di OpenAI Niko Felix ha dichiarato che la società sta lavorando per rilevare e rimuovere tali contenuti, ma l’applicazione rimane una sfida.
Risposte legali e normative
Alcuni creatori di contenuti neri, come Zaria Imani, stanno intraprendendo azioni legali ai sensi delle leggi sulla violazione del copyright. Il Take It Down Act, firmato nel maggio 2025, criminalizza la distribuzione di immagini intime non consensuali, compresi i deepfake generati dall’intelligenza artificiale. Tuttavia, gruppi di difesa come Data for Black Lives sostengono che il cambiamento sistemico è necessario per ritenere responsabili le aziende tecnologiche.
“Si tratta di sfruttare gli stereotipi violenti dei neri per le agende politiche. È ingegneria sociale per favorire l’impegno e il caos”, afferma Yeshimabeit Milner, fondatore di Data for Black Lives.
Il futuro della responsabilità dell’IA
L’aumento dei deepfake generati dall’intelligenza artificiale che prendono di mira i creatori neri evidenzia la necessità fondamentale di una regolamentazione e un’applicazione più rigorosa. Senza un’azione collettiva e un intervento legislativo, la diffusione della disinformazione e dello sfruttamento continuerà. Il panorama digitale richiede non solo soluzioni tecnologiche, ma anche un cambiamento fondamentale nel modo in cui le piattaforme affrontano i pregiudizi algoritmici e proteggono le comunità emarginate.






















