Тривожна тенденція швидко набирає обертів в Інтернеті: використання створених штучним інтелектом дипфейків для поширення дезінформації, зміцнення стереотипів і використання творців темношкірого контенту. Випадок Ліві Роуз Хендерсон, водія служби доставки DoorDash, який звинувачувався в сексуальному насильстві, став центром цього насильства, коли в Інтернеті з’явилися створені штучним інтелектом відео з обличчям темношкірої журналістки Мірлі ЛаРоз, щоб дискредитувати її заяви та виправдати її звільнення.
Зростання цифрової гримаси
Це явище, назване культурним критиком Лорен Мішель Джексон «цифровими гримасами», пов’язане з привласненням темношкірих зображень, сленгу та культури в онлайн-контенті. Це посилюється такими платформами, як TikTok, де короткі відео та інструменти штучного інтелекту, як-от Sora 2, полегшують нечорним користувачам сприймати расових персонажів через дипфейки. Один обліковий запис бота, uimuthavohaj0g, опублікував згенероване штучним інтелектом відео обличчя Лароуз, повторюючи аргументи, які применшували звинувачення Хендерсон і виправдовували рішення DoorDash звільнити її.
Приклад DoorDash
Хендерсон звільнили за розміщення інформації про клієнтів в Інтернеті, але негативна реакція посилилася, коли створені за допомогою штучного інтелекту відео неправдиво звинуватили її в порушенні конфіденційності. TikTok видалив оригінальні кадри, а потім кілька разів видалив повторно завантажені, що призвело до кількох попереджень її облікового запису. Тим часом дипфейки з обличчями ЛаРоуза та інших темношкірих творців контенту поширювалися, поширюючи дезінформацію та зміцнюючи шкідливі стереотипи. Обличчя ЛаРоуза було використано у щонайменше 19 відео, згенерованих штучним інтелектом, і TikTok спочатку відмовлявся їх видаляти, доки громадський резонанс не змусив платформу вжити заходів.
Контент, створений ШІ, підживлює дезінформацію
Проблема виходить за рамки корпусу DoorDash. Контент, створений штучним інтелектом, використовувався для поширення неправдивих наративів про чорношкірі спільноти, включаючи сфабриковані кадри темношкірих жінок, які скаржаться на допомогу з безробіття. Sora 2 від OpenAI, незважаючи на свою політику проти видавання себе за іншу особу, сприяла расистським, сексистським і класовим упередженням. Представник OpenAI Ніко Фелікс сказав, що компанія працює над виявленням і видаленням такого вмісту, але дотримання правил залишається проблемою.
Законодавчі та регуляторні відповіді
Деякі творці темношкірого вмісту, як-от Зарія Імані, подають до суду за законами про авторське право. Закон Take It Down, підписаний у травні 2025 року, передбачає кримінальну відповідальність за розповсюдження інтимних зображень без згоди, зокрема дипфейків, створених ШІ. Однак правозахисні групи, такі як Data for Black Lives, стверджують, що для притягнення технологічних компаній до відповідальності потрібні системні зміни.
“Мова йде про використання насильницьких стереотипів чорношкірих людей у політичних цілях. Це соціальна інженерія для збільшення залученості та створення хаосу”, – говорить Єшимабейт Мілнер, засновник Data for Black Lives.
Майбутнє відповідальності за AI
Поширення генерованих штучним інтелектом дипфейків, націлених на творців темношкірого контенту, підкреслює критичну потребу в більш суворих правилах і правозастосуванні. Без колективних дій і законодавчого втручання поширення дезінформації та експлуатація триватимуть. Цифровий ландшафт вимагає не лише технологічних рішень, а й фундаментальних змін у тому, як платформи вирішують алгоритмічні упередження та захищають маргіналізовані спільноти.






















