(MENAFN- The Conversation) Por qualquer medida, 2025 será o ano em que a inteligência artificial (IA) mudou rapidamente a forma como trabalhamos, interagimos uns com os outros e nos envolvemos com o mundo em geral. Também tornou inegável a dura realidade do racismo e os limites da verificação de fatos numa era de desinformação.
Graças aos sistemas algorítmicos, narrativas que exploram medos e ansiedades profundas viajam mais longe e mais rápido do que nunca. Elas circulam pelo mundo antes que os verificadores de fatos possam sinalizar uma publicação problemática.
Na segunda metade do ano, surgiu outra disrupção tecnológica com o Sora da OpenAI, um software de geração de vídeos realista. Nada, aparentemente, foi imune, incluindo a política.
Sora impactou o cenário político com particular vigor durante o maior shutdown federal da história dos Estados Unidos. A impasse de 43 dias gerou pressão significativa e controvérsia pública, especialmente em torno da incerteza e dos atrasos que poderiam afetar o Programa de Assistência Nutricional Suplementar (SNAP).
Blackface digital e a repressão à pobreza negra
No auge da ansiedade sobre os efeitos do shutdown nos benefícios do SNAP, que atende cerca de 42 milhões de americanos, uma série de vídeos curtos de mulheres negras confrontando funcionários de serviços sociais ou expressando sua frustração ao vivo chamou a atenção do mundo online.
A suspensão do SNAP foi finalmente bloqueada pelos tribunais. Também foi rapidamente revelado que os vídeos circulantes eram gerados por IA.
O mais impressionante nesses vídeos é como a caricatura da “rainha do bem-estar negra” foi deliberadamente encenada. Em um vídeo, a oradora declara: “Preciso do SNAP para comprar um iPhone.” Em outro, “Só como bife, preciso do meu dinheiro.” E em um trecho com crianças ao fundo, a mulher insiste: “Preciso fazer minhas unhas.”
Cada expressão de uso ilícito de fundos é uma abreviação para a suposta irresponsabilidade e falha moral que há muito tempo estão entrelaçadas com o estereótipo racista da “rainha do bem-estar negra”. Um usuário do X chamou esses vídeos de nada menos que “blackface digital”.
Nas palavras das escritoras feministas negras Moya Bailey e Trudy, esses vídeos trafegam por “misogynoir” — um termo criado para captar as “formas como anti-negritude e misoginia se combinam para difamar as mulheres negras”. Bailey e Trudy observam que representações de mulheres negras como indesejáveis, onerosas para o bolso público e inerentemente fraudulentas estão enraizadas, não sendo exceções.
Até mesmo vídeos “claramente marcados com uma marca d’água do Sora alcançaram quase 500.000 visualizações só no TikTok”, observou o jornalista Joe Wilkins. Wilkins explica que, mesmo quando os espectadores eram informados de que os vídeos eram gerados por IA, alguns insistiam: “Mas é isso que está acontecendo.” Alguns argumentaram que, mesmo que os vídeos fossem “falsos” tecnicamente, eles ainda “destacavam questões reais do SNAP…”.
Esses comentários expõem os limites da verificação de fatos como remédio contra a desinformação, especialmente ao lidar com estereótipos carregados. Uma vez que uma moldura prejudicial é revivida e inserida no imaginário coletivo, Ctrl+Alt+Delete torna-se ineficaz.
O que então precisa de atenção não é apenas como lidamos com o novo terreno da desinformação impulsionada por IA, mas também por que certas representações têm tanta ressonância em massa.
Por que certas imagens e narrativas viajam tão bem?
De caso de fraude consolidado a espetáculo viral
Outro exemplo de blackface digital que capturou a atenção pública foi a saga do “Alerta de fraude negra” somali de Minnesota. Embora ainda enraizado na mesma anti-negritude que animou os estereótipos da “rainha do bem-estar negra”, esse incidente incluiu islamofobia e sentimentos anti-imigrantes crescentes.
O caso remonta a um esquema de má conduta durante a era da COVID em 2022, que já resultou em prisões e condenações. O esquema foi liderado por Aimee Marie Bock, uma mulher branca, e envolveu uma rede de habitantes de Minnesota, muitos dos quais eram de origem somali.
Em dezembro de 2025, o presidente dos EUA, Donald Trump, ressuscitou o caso consolidado, usando-o como arma e vinculando-o à sua aversão de longa data por “países do terceiro mundo” e pessoas de “países de buraco de merda”. Essa retórica também se integrou à sua hostilidade contra opositores políticos, como o governador de Minnesota, Tim Walz, e a deputada Ilhan Omar.
O que se seguiu não foi uma discussão séria sobre fraude ou salvaguardas políticas. Em vez disso, o episódio reacendeu debates sobre nacionalismo branco, cidadania racializada e eugenia racial.
O apelo de Trump para deportar somalis através do ICE, declarando “Não quero eles no nosso país”, tornou essa lógica explícita. O fato de a maioria dos somalis de Minnesota possuir cidadania americana, com uma taxa de 84%, pouco perturbou a narrativa racista em circulação.
Logo após os comentários do presidente, a IA amplificou o conteúdo. Um vídeo gerado por IA circulou amplamente, animando o estereótipo do “pirata somali”. Nele, homens negros, presumivelmente somalis, são retratados como migrantes planejando roubar dos contribuintes. O vídeo mostra: “Não precisamos mais ser piratas. Encontrei uma maneira melhor. Creche financiada pelo governo. Temos que ir para Minnesota.”
Essa referência ao cuidado infantil remete a um vídeo viral produzido por um comentarista de direita, alegando expor outro capítulo do “escândalo de fraude somali”, desta vez focado em centros de cuidado infantil geridos por somalis. O vídeo levou a uma investigação estadual, que acabou descobrindo que quase todos os centros nomeados estavam operando normalmente, sem evidências claras de fraude.
O estereótipo da “rainha do bem-estar negra” e a moldura do “pirata somali” podem parecer nomear crises e sujeitos diferentes, mas ambos se baseiam na mesma gramática racial anti-negra. Em cada caso, a negritude é considerada fraudulenta, criminosa e moralmente deficiente, vista tanto como uma falha pessoal quanto como um fardo nacional.
Por que essas ideias viajam mesmo quando são falsas
Esses exemplos de blackface digital tiveram sucesso porque misogynoir e anti-negritude continuam sendo recursos discursivos facilmente disponíveis. A IA apenas acelera seu movimento. A recusa do público em corrigir o curso quando confrontado com fatos reforça como roteiros racistas e xenofóbicos já estão pré-assemblados e são intuitivos.
Tanto nos vídeos misogynoir relacionados ao SNAP quanto no conteúdo “pirata somali” gerado por IA, nuance e precisão factual eram irrelevantes. O que está em jogo é um projeto político mais amplo ligado às lógicas eugenistas do capitalismo racial.
Como argumenta o estudioso radical negro Cedric Robinson, o racismo não é incidental ao capitalismo, mas fundamental às desigualdades que ele requer. A pobreza é mal direcionada como prova de falhas pessoais e comunitárias, em vez de resultado de uma enorme injustiça estrutural. E, quando ligada à pobreza racializada, especialmente quando negra, muçulmana e imigrante, essa lógica se cristaliza em “ senso comum”.
O que está em risco com o blackface digital impulsionado por IA não é apenas a amplificação do racismo, mas a arquitetura da vida política. Nesse clima, análises sérias e nuances recuam, substituídas pela ansiedade entorpecente que estrutura o discurso público contemporâneo.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Como a IA Ressuscita Estereótipos Racistas e Desinformação - E Por Que a Verificação de Factos Não É Suficiente
(MENAFN- The Conversation) Por qualquer medida, 2025 será o ano em que a inteligência artificial (IA) mudou rapidamente a forma como trabalhamos, interagimos uns com os outros e nos envolvemos com o mundo em geral. Também tornou inegável a dura realidade do racismo e os limites da verificação de fatos numa era de desinformação.
Graças aos sistemas algorítmicos, narrativas que exploram medos e ansiedades profundas viajam mais longe e mais rápido do que nunca. Elas circulam pelo mundo antes que os verificadores de fatos possam sinalizar uma publicação problemática.
Na segunda metade do ano, surgiu outra disrupção tecnológica com o Sora da OpenAI, um software de geração de vídeos realista. Nada, aparentemente, foi imune, incluindo a política.
Sora impactou o cenário político com particular vigor durante o maior shutdown federal da história dos Estados Unidos. A impasse de 43 dias gerou pressão significativa e controvérsia pública, especialmente em torno da incerteza e dos atrasos que poderiam afetar o Programa de Assistência Nutricional Suplementar (SNAP).
Blackface digital e a repressão à pobreza negra
No auge da ansiedade sobre os efeitos do shutdown nos benefícios do SNAP, que atende cerca de 42 milhões de americanos, uma série de vídeos curtos de mulheres negras confrontando funcionários de serviços sociais ou expressando sua frustração ao vivo chamou a atenção do mundo online.
A suspensão do SNAP foi finalmente bloqueada pelos tribunais. Também foi rapidamente revelado que os vídeos circulantes eram gerados por IA.
O mais impressionante nesses vídeos é como a caricatura da “rainha do bem-estar negra” foi deliberadamente encenada. Em um vídeo, a oradora declara: “Preciso do SNAP para comprar um iPhone.” Em outro, “Só como bife, preciso do meu dinheiro.” E em um trecho com crianças ao fundo, a mulher insiste: “Preciso fazer minhas unhas.”
Cada expressão de uso ilícito de fundos é uma abreviação para a suposta irresponsabilidade e falha moral que há muito tempo estão entrelaçadas com o estereótipo racista da “rainha do bem-estar negra”. Um usuário do X chamou esses vídeos de nada menos que “blackface digital”.
Nas palavras das escritoras feministas negras Moya Bailey e Trudy, esses vídeos trafegam por “misogynoir” — um termo criado para captar as “formas como anti-negritude e misoginia se combinam para difamar as mulheres negras”. Bailey e Trudy observam que representações de mulheres negras como indesejáveis, onerosas para o bolso público e inerentemente fraudulentas estão enraizadas, não sendo exceções.
Até mesmo vídeos “claramente marcados com uma marca d’água do Sora alcançaram quase 500.000 visualizações só no TikTok”, observou o jornalista Joe Wilkins. Wilkins explica que, mesmo quando os espectadores eram informados de que os vídeos eram gerados por IA, alguns insistiam: “Mas é isso que está acontecendo.” Alguns argumentaram que, mesmo que os vídeos fossem “falsos” tecnicamente, eles ainda “destacavam questões reais do SNAP…”.
Esses comentários expõem os limites da verificação de fatos como remédio contra a desinformação, especialmente ao lidar com estereótipos carregados. Uma vez que uma moldura prejudicial é revivida e inserida no imaginário coletivo, Ctrl+Alt+Delete torna-se ineficaz.
O que então precisa de atenção não é apenas como lidamos com o novo terreno da desinformação impulsionada por IA, mas também por que certas representações têm tanta ressonância em massa.
Por que certas imagens e narrativas viajam tão bem?
De caso de fraude consolidado a espetáculo viral
Outro exemplo de blackface digital que capturou a atenção pública foi a saga do “Alerta de fraude negra” somali de Minnesota. Embora ainda enraizado na mesma anti-negritude que animou os estereótipos da “rainha do bem-estar negra”, esse incidente incluiu islamofobia e sentimentos anti-imigrantes crescentes.
O caso remonta a um esquema de má conduta durante a era da COVID em 2022, que já resultou em prisões e condenações. O esquema foi liderado por Aimee Marie Bock, uma mulher branca, e envolveu uma rede de habitantes de Minnesota, muitos dos quais eram de origem somali.
Em dezembro de 2025, o presidente dos EUA, Donald Trump, ressuscitou o caso consolidado, usando-o como arma e vinculando-o à sua aversão de longa data por “países do terceiro mundo” e pessoas de “países de buraco de merda”. Essa retórica também se integrou à sua hostilidade contra opositores políticos, como o governador de Minnesota, Tim Walz, e a deputada Ilhan Omar.
O que se seguiu não foi uma discussão séria sobre fraude ou salvaguardas políticas. Em vez disso, o episódio reacendeu debates sobre nacionalismo branco, cidadania racializada e eugenia racial.
O apelo de Trump para deportar somalis através do ICE, declarando “Não quero eles no nosso país”, tornou essa lógica explícita. O fato de a maioria dos somalis de Minnesota possuir cidadania americana, com uma taxa de 84%, pouco perturbou a narrativa racista em circulação.
Logo após os comentários do presidente, a IA amplificou o conteúdo. Um vídeo gerado por IA circulou amplamente, animando o estereótipo do “pirata somali”. Nele, homens negros, presumivelmente somalis, são retratados como migrantes planejando roubar dos contribuintes. O vídeo mostra: “Não precisamos mais ser piratas. Encontrei uma maneira melhor. Creche financiada pelo governo. Temos que ir para Minnesota.”
Essa referência ao cuidado infantil remete a um vídeo viral produzido por um comentarista de direita, alegando expor outro capítulo do “escândalo de fraude somali”, desta vez focado em centros de cuidado infantil geridos por somalis. O vídeo levou a uma investigação estadual, que acabou descobrindo que quase todos os centros nomeados estavam operando normalmente, sem evidências claras de fraude.
O estereótipo da “rainha do bem-estar negra” e a moldura do “pirata somali” podem parecer nomear crises e sujeitos diferentes, mas ambos se baseiam na mesma gramática racial anti-negra. Em cada caso, a negritude é considerada fraudulenta, criminosa e moralmente deficiente, vista tanto como uma falha pessoal quanto como um fardo nacional.
Por que essas ideias viajam mesmo quando são falsas
Esses exemplos de blackface digital tiveram sucesso porque misogynoir e anti-negritude continuam sendo recursos discursivos facilmente disponíveis. A IA apenas acelera seu movimento. A recusa do público em corrigir o curso quando confrontado com fatos reforça como roteiros racistas e xenofóbicos já estão pré-assemblados e são intuitivos.
Tanto nos vídeos misogynoir relacionados ao SNAP quanto no conteúdo “pirata somali” gerado por IA, nuance e precisão factual eram irrelevantes. O que está em jogo é um projeto político mais amplo ligado às lógicas eugenistas do capitalismo racial.
Como argumenta o estudioso radical negro Cedric Robinson, o racismo não é incidental ao capitalismo, mas fundamental às desigualdades que ele requer. A pobreza é mal direcionada como prova de falhas pessoais e comunitárias, em vez de resultado de uma enorme injustiça estrutural. E, quando ligada à pobreza racializada, especialmente quando negra, muçulmana e imigrante, essa lógica se cristaliza em “ senso comum”.
O que está em risco com o blackface digital impulsionado por IA não é apenas a amplificação do racismo, mas a arquitetura da vida política. Nesse clima, análises sérias e nuances recuam, substituídas pela ansiedade entorpecente que estrutura o discurso público contemporâneo.