Ein beunruhigender Trend breitet sich im Internet rasant aus: die Nutzung von KI-generierten Deepfakes als Waffe, um Fehlinformationen zu verbreiten, Stereotypen zu verstärken und schwarze Schöpfer auszubeuten. Der Fall von Livie Rose Henderson, der DoorDash-Lieferfahrerin, die einen sexuellen Übergriff behauptete, wurde zum Brennpunkt dieses Missbrauchs, als KI-generierte Videos auftauchten, in denen das Konterfei der schwarzen Journalistin Mirlie Larose zu sehen war, um ihre Behauptungen zu diskreditieren und ihre Entlassung zu rechtfertigen.
Der Aufstieg des digitalen Blackface
Das Phänomen, das von der Kulturkritikerin Lauren Michele Jackson als „digitales Blackface“ bezeichnet wird, beinhaltet die Aneignung schwarzer Bilder, Slangs und Kultur in Online-Inhalten. Dies wird durch Plattformen wie TikTok verstärkt, wo Kurzvideos und KI-Tools wie Sora 2 es nicht-schwarzen Nutzern erleichtern, durch Deepfakes rassistische Rollen zu übernehmen. Ein Bot-Konto, uimuthavohaj0g, veröffentlichte KI-generierte Videos mit Laroses Gesicht und plapperte Argumente nach, die Hendersons Vorwürfe herunterspielten und DoorDashs Entscheidung, ihr Arbeitsverhältnis zu beenden, rechtfertigten.
Die DoorDash-Kontroverse als Fallstudie
Henderson wurde entlassen, weil sie Kundeninformationen online weitergegeben hatte, doch die Gegenreaktion verschärfte sich, als KI-generierte Videos sie fälschlicherweise in Datenschutzverletzungen verwickelten. TikTok entfernte das Originalmaterial und löschte dann wiederholt erneute Uploads, was zu mehreren Verwarnungen gegen ihr Konto führte. Unterdessen kursierten Deepfakes, die das Gesicht von Larose und anderen schwarzen Schöpfern verwendeten, Fehlinformationen verbreiteten und schädliche Stereotypen verstärkten. Laroses Konterfei wurde in mindestens 19 KI-generierten Videos verwendet, wobei TikTok sich zunächst weigerte, sie zu entfernen, bis ein öffentlicher Aufschrei zum Handeln zwang.
KI-generierte Inhalte fördern Fehlinformationen
Das Problem geht über den DoorDash-Fall hinaus. KI-generierte Inhalte wurden verwendet, um falsche Narrative über schwarze Gemeinschaften zu verbreiten, darunter gefälschte Clips von schwarzen Frauen, die sich über Sozialleistungen beschweren. Sora 2 von OpenAI hat trotz Richtlinien gegen Identitätsdiebstahl die Verbreitung rassistischer, sexistischer und klassizistischer Vorurteile gefördert. Niko Felix, Sprecher von OpenAI, erklärte, dass das Unternehmen daran arbeite, solche Inhalte zu erkennen und zu entfernen, die Durchsetzung jedoch weiterhin eine Herausforderung sei.
Rechtliche und behördliche Antworten
Einige Ersteller von schwarzen Inhalten, wie Zaria Imani, verfolgen rechtliche Schritte aufgrund von Urheberrechtsverletzungsgesetzen. Der im Mai 2025 unterzeichnete Take It Down Act kriminalisiert die Verbreitung nicht einvernehmlicher intimer Bilder, einschließlich KI-generierter Deepfakes. Interessengruppen wie Data for Black Lives argumentieren jedoch, dass ein systemischer Wandel notwendig sei, um Technologieunternehmen zur Rechenschaft zu ziehen.
„Hier geht es darum, gewalttätige Stereotypen von Schwarzen für politische Ziele zu nutzen. Es handelt sich um Social Engineering, um Engagement und Chaos voranzutreiben“, sagt Yeshimabeit Milner, Gründerin von Data for Black Lives.
Die Zukunft der KI-Verantwortung
Der Anstieg von KI-generierten Deepfakes, die auf schwarze Urheber abzielen, verdeutlicht die dringende Notwendigkeit einer strengeren Regulierung und Durchsetzung. Ohne kollektives Handeln und gesetzgeberisches Eingreifen wird die Verbreitung von Fehlinformationen und Ausbeutung weitergehen. Die digitale Landschaft erfordert nicht nur technologische Lösungen, sondern auch einen grundlegenden Wandel in der Art und Weise, wie Plattformen algorithmische Vorurteile bekämpfen und marginalisierte Gemeinschaften schützen.






















