Internet regorge désormais de vidéos fabriquées illustrant des confrontations directes entre des civils et des agents de l’ICE : un directeur d’école brandissant une batte, un restaurant jetant des nouilles chaudes, des citoyens faisant respecter les droits du quatrième amendement. Ces clips, bien que clairement générés par l’IA, sont devenus viraux, reflétant une tendance croissante selon laquelle la fantaisie numérique alimente la résistance du monde réel. Cette montée en puissance du contenu créé par l’IA survient après que deux citoyens américains – Renee Nicole Good et Alex Pretti – aient été mortellement abattus par des agents fédéraux lors de la répression de l’immigration menée par l’administration Trump à Minneapolis.
Pourquoi c’est important : L’essor de la réalité modifiée par l’IA ne concerne pas seulement le divertissement. Il s’agit de contrôler le récit. Lorsque l’on se méfie des sources officielles, les gens se tournent vers leurs propres moyens pour dire la vérité, même si cela implique de la fabriquer de toutes pièces. Cela crée une boucle de rétroaction dangereuse : méfiance à l’égard des images réelles, recours accru aux contrefaçons et érosion accrue de la réalité partagée.
L’attrait de la justice numérique
Ces vidéos offrent une alternative cathartique à la réalité brutale des actions de l’ICE. Ils imaginent un monde où la responsabilité existe, où les agents subissent des conséquences immédiates en cas d’abus de pouvoir. Les clips exploitent une colère et une frustration profondément enracinées face à un système perçu comme injuste. Le créateur de l’IA, Nicholas Arter, note qu’il s’agit d’un schéma qui se répète à travers les évolutions technologiques : les gens utilisent les outils disponibles pour exprimer leurs émotions, leurs peurs et leur résistance.
Une affiche prolifique, opérant sous le nom de Mike Wayne, a mis en ligne plus de 1 000 vidéos de ce type depuis le 7 janvier, montrant souvent des personnes de couleur tenant tête à ICE. Ces clips présentent un contre-récit dans lequel des agents sont arrêtés, giflés ou expulsés des églises par des citoyens rebelles. Un clip viral montre des agents de l’ICE affrontés lors d’un événement sportif, accumulant 11 millions de vues en 72 heures.
L’épée à double tranchant
Même si ces vidéos peuvent sembler stimulantes, elles déforment également la réalité. Les experts préviennent qu’ils peuvent renforcer les préjugés existants, alimenter le scepticisme à l’égard des images authentiques et même saper les mouvements légitimes. Joshua Tucker du Center for Social Media, AI, and Politics de NYU suggère que l’objectif est d’inonder les médias sociaux de contenu anti-ICE, dans l’espoir d’une viralité et d’un capital politique.
L’administration Trump a également utilisé la manipulation de l’IA comme une arme. Il y a une semaine, la Maison Blanche a publié une photo modifiée de Nekima Levy Armstrong après son arrestation lors d’une manifestation, la qualifiant d’« agitatrice d’extrême gauche ». Cela montre avec quelle facilité l’IA peut être utilisée pour discréditer les opposants et renforcer les récits préférés.
L’avenir de la résistance
L’IA est déjà profondément ancrée dans l’influence politique. Selon une récente étude de Graphite, plus de 50 % des nouveaux articles en ligne sont désormais générés par l’IA. À mesure que les mouvements de résistance s’adapteront, l’IA deviendra incontournable, à la fois comme outil d’autonomisation et comme arme contre celle-ci. Le cinéaste Willonious Hatcher affirme que ces vidéos révèlent une vérité plus profonde : les gens sont obligés de fabriquer la libération parce que la réalité reste hors de portée.
“Les opprimés ont toujours construit ce qu’ils ne trouvaient pas… Ces vidéos ne sont pas un leurre. Ce sont des diagnostics.”
Cependant, la prolifération des contenus générés par l’IA risque de saper les preuves nécessaires pour demander des comptes aux autorités. Les preuves vidéo ont été cruciales pour documenter les actions de l’ICE et réfuter les faux récits entourant la mort de Good et Pretti. Pourtant, à mesure que le flot de contrefaçons augmente, la confiance dans toutes les images s’érode. Même des clips vérifiés, comme celui d’Alex Pretti affrontant ICE avant sa mort, sont désormais accusés d’être générés par l’IA.
Le problème central est que la capacité de l’IA à manipuler la perception dépasse désormais notre capacité à vérifier la réalité. Il ne s’agit pas seulement d’un problème technique ; il s’agit d’une crise de confiance fondamentale à l’ère numérique.























