Додому Різне Deepfakes gerados por IA têm como alvo criadores negros no esquema digital...

Deepfakes gerados por IA têm como alvo criadores negros no esquema digital Blackface

Uma tendência perturbadora está aumentando rapidamente online: a utilização de deepfakes gerados por IA como arma para espalhar desinformação, reforçar estereótipos e explorar criadores negros. O caso de Livie Rose Henderson, a motorista de entrega do DoorDash que alegou ter sofrido agressão sexual, tornou-se um ponto focal para esse abuso quando surgiram vídeos gerados por IA usando a imagem da jornalista negra Mirlie Larose para desacreditar suas alegações e justificar sua demissão.

A ascensão do Blackface Digital

O fenômeno, denominado “blackface digital” pela crítica cultural Lauren Michele Jackson, envolve a apropriação de imagens, gírias e cultura negra em conteúdo online. Isso é amplificado por plataformas como o TikTok, onde vídeos curtos e ferramentas de IA como Sora 2 tornam mais fácil para usuários não negros adotarem personas racializadas por meio de deepfakes. Uma conta de bot, uimuthavohaj0g, postou vídeos gerados por IA usando o rosto de Larose, repetindo argumentos que minimizaram as alegações de Henderson e justificaram a decisão de DoorDash de rescindir seu emprego.

A controvérsia do DoorDash como um estudo de caso

Henderson foi demitida por compartilhar informações de clientes on-line, mas a reação se intensificou quando vídeos gerados por IA a implicaram falsamente em violações de privacidade. O TikTok removeu a filmagem original e, em seguida, excluiu repetidamente os reenvios, levando a vários ataques contra sua conta. Enquanto isso, circularam deepfakes usando o rosto de Larose e de outros criadores negros, espalhando desinformação e reforçando estereótipos prejudiciais. A imagem de Larose foi usada em pelo menos 19 vídeos gerados por IA, com o TikTok inicialmente se recusando a removê-los até que o clamor público forçou uma ação.

Conteúdo gerado por IA alimenta desinformação

O problema vai além do caso do DoorDash. O conteúdo gerado pela IA tem sido usado para espalhar narrativas falsas sobre as comunidades negras, incluindo clipes fabricados de mulheres negras reclamando de benefícios sociais. O Sora 2 da OpenAI, apesar das políticas contra a falsificação de identidade, facilitou a proliferação de preconceitos racistas, sexistas e classistas. O porta-voz da OpenAI, Niko Felix, afirmou que a empresa está trabalhando para detectar e remover esse conteúdo, mas a fiscalização continua um desafio.

Respostas legais e regulatórias

Alguns criadores de conteúdo negro, como Zaria Imani, estão buscando ações legais sob leis de violação de direitos autorais. A Lei Take It Down, assinada em maio de 2025, criminaliza a distribuição de imagens íntimas não consensuais, incluindo deepfakes gerados por IA. No entanto, grupos de defesa como o Data for Black Lives argumentam que uma mudança sistémica é necessária para responsabilizar as empresas tecnológicas.

“Trata-se de aproveitar estereótipos violentos de pessoas negras para agendas políticas. É engenharia social para impulsionar o envolvimento e o caos”, diz Yesimabeit Milner, fundador da Data for Black Lives.

O futuro da responsabilidade pela IA

A ascensão de deepfakes gerados por IA visando criadores negros destaca uma necessidade crítica de regulamentação e fiscalização mais fortes. Sem acção colectiva e intervenção legislativa, a propagação da desinformação e da exploração continuará. O panorama digital exige não apenas soluções tecnológicas, mas também uma mudança fundamental na forma como as plataformas abordam os preconceitos algorítmicos e protegem as comunidades marginalizadas.

Exit mobile version