Comment l'IA ressuscite les stéréotypes racistes et la désinformation - Et pourquoi la vérification des faits ne suffit pas

(MENAFN- The Conversation) Par tous les critères, 2025 sera l’année où l’intelligence artificielle (IA) a rapidement changé notre façon de travailler, d’interagir et de nous engager avec le monde en général. Elle a également rendu indéniable la réalité persistante du racisme et les limites de la vérification des faits à l’ère de la désinformation.

Grâce aux systèmes algorithmiques, les narratifs qui exploitent des peurs et des angoisses profondes se propagent plus loin et plus vite que jamais. Ils parcourent le globe avant même que les vérificateurs puissent signaler un post problématique.

Dans la seconde moitié de l’année, une autre disruption technologique a émergé avec Sora d’OpenAI, un logiciel de génération vidéo réaliste. Rien, apparemment, n’était à l’abri, y compris la politique.

Sora a frappé le paysage politique avec une vigueur particulière lors du plus long shutdown fédéral de l’histoire des États-Unis. L’impasse de 43 jours a généré une pression importante et une controverse publique, notamment autour de l’incertitude et des retards pouvant affecter le Programme d’aide nutritionnelle supplémentaire (SNAP).

Le blackface numérique et la police de la pauvreté noire

Au sommet de l’anxiété concernant les effets de la fermeture sur les prestations SNAP, qui bénéficient à environ 42 millions d’Américains, une série de courtes vidéos montrant des femmes noires accostant des employés de services sociaux ou exprimant leur frustration en direct a attiré l’attention de la sphère en ligne.

La suspension du SNAP a finalement été bloquée par les tribunaux. Il a également été rapidement révélé que les clips circulants étaient générés par IA.

Ce qui est le plus frappant dans ces vidéos, c’est la mise en scène délibérée de la caricature de la « reine de l’aide sociale noire ». Dans une vidéo, la locutrice déclare : « J’ai besoin du SNAP pour acheter un iPhone. » Dans une autre, « Je ne mange que du steak, j’ai besoin de mes fonds. » Et dans un clip avec des enfants en arrière-plan, la femme insiste : « Je dois faire mes ongles. »

Chaque expression d’utilisation illicite des fonds est une façon abrégée de dénoncer la prétendue irresponsabilité et le défaut moral qui sont depuis longtemps liés au stéréotype raciste de la « reine de l’aide sociale noire ». Un utilisateur de X a justement qualifié ces vidéos de « blackface numérique ».

Selon les mots des écrivaines féministes noires Moya Bailey et Trudy, ces vidéos véhiculent le « misogynoir » — un terme développé pour capturer la façon dont l’anti-noirceur et la misogynie se combinent pour diffamer les femmes noires. Bailey et Trudy notent que les représentations des femmes noires comme indignes, pesant sur le budget public et intrinsèquement frauduleuses, sont enracinées plutôt qu’exceptionnelles.

Même des clips « clairement marqués d’un filigrane Sora ont été visionnés près de 500 000 fois rien que sur TikTok », a observé le journaliste Joe Wilkins. Wilkins explique que même lorsque les spectateurs étaient informés que les clips étaient générés par IA, certains insistaient : « Mais c’est ce qui se passe. » Certains soutenaient que même si les vidéos étaient techniquement « fausses », elles « mettent en lumière de véritables problèmes du SNAP… ».

Ces commentaires révèlent les limites de la vérification des faits comme antidote à la désinformation, surtout lorsqu’il s’agit de stéréotypes chargés. Lorsqu’un cadre nuisible est ravivé et projeté dans l’espace collectif, le raccourci Ctrl+Alt+Suppr devient inefficace.

Ce qui doit donc attirer notre attention, ce n’est pas seulement la façon dont nous affrontons le nouveau terrain de la désinformation alimentée par l’IA, mais aussi la nécessité de se demander pourquoi certaines représentations résonnent autant auprès du grand public.

Pourquoi certaines images et narratifs circulent-ils si bien ?

D’un cas de fraude réglé à un spectacle viral

Un autre exemple de blackface numérique qui a captivé l’attention publique concerne la saga du « Black fraud alert » chez les Somaliens du Minnesota. Bien qu’encore ancrée dans la même anti-noirceur qui animait les caricatures de la « reine de l’aide sociale noire », cette affaire comprenait aussi de l’islamophobie et une montée des sentiments anti-immigrés.

L’affaire remonte à une fraude liée à la période COVID en 2022, qui avait déjà conduit à des arrestations et des condamnations. La fraude était dirigée par Aimee Marie Bock, une femme blanche, et impliquait un réseau de Minnesotains, dont beaucoup étaient d’origine somalienne.

En décembre 2025, le président américain Donald Trump a ressuscité cette affaire, en l’utilisant comme arme et en la liant à son mépris de longue date pour les « pays du tiers-monde » et les personnes venant de « pays de merde ». Cette rhétorique s’est aussi intégrée à son hostilité envers ses opposants politiques, le gouverneur du Minnesota Tim Walz et la députée Ilhan Omar.

Ce qui a suivi n’a pas été une discussion sérieuse sur la fraude ou les mesures de sécurité politique. Au contraire, l’épisode a ravivé les débats sur le nationalisme blanc, la citoyenneté racialisée et l’eugénisme racial.

L’appel de Trump à expulser les Somaliens via l’ICE, en déclarant « Je ne veux pas d’eux dans notre pays », a rendu cette logique explicite. Le fait que la majorité des Somaliens du Minnesota détiennent la citoyenneté américaine, avec un taux de 84 %, n’a pas vraiment perturbé l’histoire raciste en circulation.

Peu après les commentaires du président, l’IA a amplifié le contenu. Une vidéo générée par IA a circulé largement, animant le trope du « pirate somalien ». Elle montrait des hommes noirs, présumés Somaliens, comme des migrants planifiant de voler aux contribuables. On y entendait : « Nous n’avons plus besoin d’être des pirates. J’ai trouvé une meilleure façon. Crèche financée par le gouvernement. Nous devons aller au Minnesota. »

Cette référence à la garde d’enfants faisait écho à une vidéo virale produite par un commentateur d’extrême droite, prétendant dévoiler un autre chapitre du « scandale de fraude somalienne », cette fois ciblant des centres de garde d’enfants gérés par des Somaliens. La vidéo a conduit à une enquête à l’échelle de l’État, qui a finalement révélé que tous sauf un des centres nommés fonctionnaient normalement, sans preuve claire de fraude.

Le stéréotype de la « reine de l’aide sociale noire » et le cadre du « pirate somalien » peuvent sembler désigner des crises et des sujets différents, mais tous deux puisent dans la même grammaire raciale anti-noir. Dans chaque cas, la noirceur est rendue frauduleuse, criminelle et moralement déficiente, perçue à la fois comme un échec personnel et un fardeau national.

Pourquoi ces idées circulent-elles même lorsqu’elles sont fausses ?

Ces exemples de blackface numérique ont réussi parce que le misogynoir et l’anti-noirceur restent des ressources discursives facilement accessibles. L’IA ne fait qu’accélérer leur diffusion. Le refus du public de rectifier le tir lorsque la vérification des faits est effectuée souligne à quel point ces scripts racistes et xénophobes sont déjà intuitifs et préassemblés.

Dans les vidéos misogynoiriques sur le thème du SNAP et dans le contenu « pirate somalien » généré par IA, la nuance et l’exactitude factuelle n’étaient pas l’enjeu. Ce qui prime, c’est un projet politique plus large lié aux logiques eugénistes du capitalisme racial.

Comme l’affirme le chercheur radical noir Cedric Robinson, le racisme n’est pas accessoire au capitalisme, mais en est la base même, nourrissant les inégalités qu’il engendre. La pauvreté est perçue comme une preuve d’échecs personnels et communautaires plutôt que comme le résultat d’un immense déséquilibre structurel. Et lorsqu’elle est associée aux pauvres racialisés, en particulier noirs, musulmans et immigrants, cette logique devient une « évidence » partagée.

Ce qui est en jeu avec le blackface numérique alimenté par l’IA, ce n’est pas seulement l’amplification du racisme, mais aussi l’architecture de la vie politique. Dans ce climat, l’analyse sérieuse et la nuance reculent, remplacées par l’anxiété anesthésiante qui structure le discours public contemporain.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)