Додому Різне ИИ-Сгенерированные Дипфейки Нацелены на Чёрных Создателей Контента в Схеме Цифрового Гримаса

ИИ-Сгенерированные Дипфейки Нацелены на Чёрных Создателей Контента в Схеме Цифрового Гримаса

Тревожная тенденция стремительно набирает обороты в сети: использование ИИ-сгенерированных дипфейков для распространения дезинформации, укрепления стереотипов и эксплуатации чёрных создателей контента. Дело Ливи Роуз Хендерсон, курьера DoorDash, которая заявила о сексуальном нападении, стало центром этого злоупотребления, когда в сети появились ИИ-сгенерированные видео с лицом чёрной журналистки Мирли Лароуз, чтобы дискредитировать её утверждения и оправдать её увольнение.

Расцвет Цифрового Гримаса

Это явление, названное критиком культуры Лорен Мишель Джексон «цифровым гримасом», включает в себя присвоение чёрных образов, сленга и культуры в онлайн-контенте. Это усиливается такими платформами, как TikTok, где короткие видео и инструменты ИИ, такие как Sora 2, облегчают нечернокожим пользователям принятие расовых персон через дипфейки. Один из бот-аккаунтов, uimuthavohaj0g, размещал ИИ-сгенерированные видео с лицом Лароуз, повторяя аргументы, которые принижали обвинения Хендерсон и оправдывали решение DoorDash об увольнении.

Дело DoorDash как Пример

Хендерсон была уволена за публикацию информации о клиентах в сети, но волна негатива усилилась, когда ИИ-сгенерированные видео ложно обвинили её в нарушениях конфиденциальности. TikTok удалил оригинальные кадры, а затем неоднократно удалял повторные загрузки, что привело к нескольким страйкам против её аккаунта. Тем временем дипфейки с лицом Лароуз и других чёрных создателей контента распространялись, распространяя дезинформацию и укрепляя вредные стереотипы. Лик Лароуз был использован как минимум в 19 ИИ-сгенерированных видео, при этом TikTok сначала отказывался удалять их, пока общественный резонанс не заставил платформу принять меры.

ИИ-Сгенерированный Контент Подпитывает Дезинформацию

Проблема выходит за рамки дела DoorDash. ИИ-сгенерированный контент использовался для распространения ложных нарративов о чёрных сообществах, включая сфабрикованные кадры с чёрными женщинами, жалующимися на пособия по безработице. Sora 2 от OpenAI, несмотря на политику против выдачи себя за другого, способствовал распространению расистских, сексистских и классовых предубеждений. Представитель OpenAI Нико Феликс заявил, что компания работает над обнаружением и удалением такого контента, но обеспечение соблюдения правил остаётся сложной задачей.

Правовые и Регуляторные Ответы

Некоторые чёрные создатели контента, такие как Зария Имани, подают в суд на основе законов об авторских правах. Закон «Снимите это» (Take It Down Act), подписанный в мае 2025 года, криминализирует распространение интимных изображений без согласия, включая ИИ-сгенерированные дипфейки. Однако правозащитные группы, такие как Data for Black Lives, утверждают, что системные изменения необходимы для привлечения технологических компаний к ответственности.

«Речь идёт об использовании насильственных стереотипов о чёрных людях в политических целях. Это социальная инженерия, направленная на повышение вовлечённости и создание хаоса», — говорит Ешимабейт Милнер, основатель Data for Black Lives.

Будущее Ответственности ИИ

Распространение ИИ-сгенерированных дипфейков, нацеленных на чёрных создателей контента, подчеркивает критическую необходимость в более строгих правилах и обеспечении их соблюдения. Без коллективных действий и законодательного вмешательства распространение дезинформации и эксплуатации будет продолжаться. Цифровой ландшафт требует не только технологических решений, но и фундаментального сдвига в том, как платформы решают проблему алгоритмических предубеждений и защищают маргинализированные сообщества.

Exit mobile version