Une tendance inquiétante s’intensifie rapidement en ligne : la militarisation des deepfakes générés par l’IA pour diffuser de la désinformation, renforcer les stéréotypes et exploiter les créateurs noirs. Le cas de Livie Rose Henderson, la conductrice-livreuse de DoorDash qui a allégué une agression sexuelle, est devenue un point central de ces abus lorsque des vidéos générées par l’IA ont fait surface utilisant l’image de la journaliste noire Mirlie Larose pour discréditer ses affirmations et justifier son licenciement.
L’essor du Blackface numérique
Le phénomène, qualifié de « blackface numérique » par la critique culturelle Lauren Michele Jackson, implique l’appropriation de l’imagerie, de l’argot et de la culture noirs dans le contenu en ligne. Ceci est amplifié par des plateformes comme TikTok, où des vidéos courtes et des outils d’IA comme Sora 2 permettent aux utilisateurs non noirs d’adopter plus facilement des personnalités racialisées via des deepfakes. Un compte de robot, uimuthavohaj0g, a publié des vidéos générées par l’IA utilisant le visage de Larose, reprenant des arguments qui minimisaient les allégations d’Henderson et justifiaient la décision de DoorDash de mettre fin à son emploi.
La controverse DoorDash comme étude de cas
Henderson a été licenciée pour avoir partagé des informations sur des clients en ligne, mais la réaction s’est intensifiée lorsque des vidéos générées par l’IA l’ont faussement impliquée dans des violations de la vie privée. TikTok a supprimé les images originales, puis supprimé à plusieurs reprises les mises en ligne, ce qui a entraîné de multiples avertissements contre son compte. Pendant ce temps, des deepfakes utilisant le visage de Larose et celui d’autres créateurs noirs ont circulé, diffusant de la désinformation et renforçant des stéréotypes néfastes. L’image de Larose a été utilisée dans au moins 19 vidéos générées par l’IA, TikTok refusant initialement de les supprimer jusqu’à ce que le tollé général oblige à agir.
Le contenu généré par l’IA alimente la désinformation
Le problème s’étend au-delà du cas DoorDash. Le contenu généré par l’IA a été utilisé pour diffuser de faux récits sur les communautés noires, notamment des clips fabriqués de toutes pièces montrant des femmes noires se plaignant des prestations sociales. Sora 2 d’OpenAI, malgré les politiques contre l’usurpation d’identité, a facilité la prolifération de préjugés racistes, sexistes et classistes. Le porte-parole d’OpenAI, Niko Felix, a déclaré que la société s’efforçait de détecter et de supprimer ce type de contenu, mais que l’application reste un défi.
Réponses juridiques et réglementaires
Certains créateurs de contenu noir, comme Zaria Imani, intentent des poursuites judiciaires en vertu des lois pour violation du droit d’auteur. Le Take It Down Act, signé en mai 2025, criminalise la distribution d’images intimes non consensuelles, y compris les deepfakes générés par l’IA. Cependant, des groupes de défense comme Data for Black Lives soutiennent qu’un changement systémique est nécessaire pour responsabiliser les entreprises technologiques.
“Il s’agit d’exploiter les stéréotypes violents des Noirs à des fins politiques. C’est de l’ingénierie sociale pour susciter l’engagement et le chaos”, déclare Yesimabeit Milner, fondateur de Data for Black Lives.
L’avenir de la responsabilité de l’IA
La montée en puissance des deepfakes générés par l’IA ciblant les créateurs noirs met en évidence le besoin crucial d’une réglementation et d’une application plus strictes. Sans action collective et intervention législative, la propagation de la désinformation et l’exploitation continueront. Le paysage numérique nécessite non seulement des solutions technologiques, mais aussi un changement fondamental dans la manière dont les plateformes traitent les préjugés algorithmiques et protègent les communautés marginalisées.
