Una tendencia inquietante está aumentando rápidamente en línea: la utilización de deepfakes generados por IA como arma para difundir información errónea, reforzar estereotipos y explotar a los creadores negros. El caso de Livie Rose Henderson, la conductora de reparto de DoorDash que denunció una agresión sexual, se convirtió en un punto focal de este abuso cuando aparecieron videos generados por IA que utilizaban la imagen de la periodista negra Mirlie Larose para desacreditar sus afirmaciones y justificar su despido.

El auge de la cara negra digital

El fenómeno, denominado “cara negra digital” por la crítica cultural Lauren Michele Jackson, implica la apropiación de imágenes, jerga y cultura negras en el contenido en línea. Esto se ve amplificado por plataformas como TikTok, donde los videos de formato corto y las herramientas de inteligencia artificial como Sora 2 facilitan que los usuarios no negros adopten personajes racializados a través de deepfakes. Una cuenta de bot, uimuthavohaj0g, publicó videos generados por IA usando el rostro de Larose, repitiendo como loros argumentos que minimizaban las acusaciones de Henderson y justificaban la decisión de DoorDash de despedir su empleo.

La controversia de DoorDash como estudio de caso

Henderson fue despedida por compartir información de clientes en línea, pero la reacción se intensificó cuando videos generados por IA la implicaron falsamente en violaciones de privacidad. TikTok eliminó el metraje original y luego eliminó repetidamente las recargas, lo que provocó múltiples ataques contra su cuenta. Mientras tanto, circularon deepfakes que utilizaban el rostro de Larose y el de otros creadores negros, difundiendo información errónea y reforzando estereotipos dañinos. La imagen de Larose se utilizó en al menos 19 videos generados por IA, y TikTok inicialmente se negó a eliminarlos hasta que la protesta pública obligó a tomar medidas.

El contenido generado por IA alimenta la desinformación

El problema se extiende más allá del caso DoorDash. El contenido generado por IA se ha utilizado para difundir narrativas falsas sobre las comunidades negras, incluidos clips fabricados de mujeres negras quejándose de las prestaciones sociales. Sora 2 de OpenAI, a pesar de las políticas contra la suplantación de identidad, ha facilitado la proliferación de prejuicios racistas, sexistas y clasistas. El portavoz de OpenAI, Niko Felix, afirmó que la empresa está trabajando para detectar y eliminar dicho contenido, pero su aplicación sigue siendo un desafío.

Respuestas legales y regulatorias

Algunos creadores de contenido negros, como Zaria Imani, están emprendiendo acciones legales en virtud de las leyes de infracción de derechos de autor. La Ley Take It Down, firmada en mayo de 2025, penaliza la distribución de imágenes íntimas no consensuadas, incluidas las deepfakes generadas por IA. Sin embargo, grupos de defensa como Data for Black Lives sostienen que es necesario un cambio sistémico para responsabilizar a las empresas de tecnología.

“Se trata de aprovechar los estereotipos violentos de los negros para las agendas políticas. Es ingeniería social para impulsar el compromiso y el caos”, dice Yeshimabeit Milner, fundador de Data for Black Lives.

El futuro de la responsabilidad de la IA

El aumento de los deepfakes generados por IA dirigidos a creadores negros pone de relieve la necesidad crítica de una regulación y aplicación más estrictas. Sin acción colectiva e intervención legislativa, la difusión de información errónea y la explotación continuarán. El panorama digital requiere no sólo soluciones tecnológicas, sino también un cambio fundamental en la forma en que las plataformas abordan los sesgos algorítmicos y protegen a las comunidades marginadas.