Uma tendência perturbadora está aumentando rapidamente online: a utilização de deepfakes gerados por IA como arma para espalhar desinformação, reforçar estereótipos e explorar criadores negros. O caso de Livie Rose Henderson, a motorista de entrega do DoorDash que alegou ter sofrido agressão sexual, tornou-se um ponto focal para esse abuso quando surgiram vídeos gerados por IA usando a imagem da jornalista negra Mirlie Larose para desacreditar suas alegações e justificar sua demissão.
A ascensão do Blackface Digital
O fenômeno, denominado “blackface digital” pela crítica cultural Lauren Michele Jackson, envolve a apropriação de imagens, gírias e cultura negra em conteúdo online. Isso é amplificado por plataformas como o TikTok, onde vídeos curtos e ferramentas de IA como Sora 2 tornam mais fácil para usuários não negros adotarem personas racializadas por meio de deepfakes. Uma conta de bot, uimuthavohaj0g, postou vídeos gerados por IA usando o rosto de Larose, repetindo argumentos que minimizaram as alegações de Henderson e justificaram a decisão de DoorDash de rescindir seu emprego.
A controvérsia do DoorDash como um estudo de caso
Henderson foi demitida por compartilhar informações de clientes on-line, mas a reação se intensificou quando vídeos gerados por IA a implicaram falsamente em violações de privacidade. O TikTok removeu a filmagem original e, em seguida, excluiu repetidamente os reenvios, levando a vários ataques contra sua conta. Enquanto isso, circularam deepfakes usando o rosto de Larose e de outros criadores negros, espalhando desinformação e reforçando estereótipos prejudiciais. A imagem de Larose foi usada em pelo menos 19 vídeos gerados por IA, com o TikTok inicialmente se recusando a removê-los até que o clamor público forçou uma ação.
Conteúdo gerado por IA alimenta desinformação
O problema vai além do caso do DoorDash. O conteúdo gerado pela IA tem sido usado para espalhar narrativas falsas sobre as comunidades negras, incluindo clipes fabricados de mulheres negras reclamando de benefícios sociais. O Sora 2 da OpenAI, apesar das políticas contra a falsificação de identidade, facilitou a proliferação de preconceitos racistas, sexistas e classistas. O porta-voz da OpenAI, Niko Felix, afirmou que a empresa está trabalhando para detectar e remover esse conteúdo, mas a fiscalização continua um desafio.
Respostas legais e regulatórias
Alguns criadores de conteúdo negro, como Zaria Imani, estão buscando ações legais sob leis de violação de direitos autorais. A Lei Take It Down, assinada em maio de 2025, criminaliza a distribuição de imagens íntimas não consensuais, incluindo deepfakes gerados por IA. No entanto, grupos de defesa como o Data for Black Lives argumentam que uma mudança sistémica é necessária para responsabilizar as empresas tecnológicas.
“Trata-se de aproveitar estereótipos violentos de pessoas negras para agendas políticas. É engenharia social para impulsionar o envolvimento e o caos”, diz Yesimabeit Milner, fundador da Data for Black Lives.
O futuro da responsabilidade pela IA
A ascensão de deepfakes gerados por IA visando criadores negros destaca uma necessidade crítica de regulamentação e fiscalização mais fortes. Sem acção colectiva e intervenção legislativa, a propagação da desinformação e da exploração continuará. O panorama digital exige não apenas soluções tecnológicas, mas também uma mudança fundamental na forma como as plataformas abordam os preconceitos algorítmicos e protegem as comunidades marginalizadas.






















