Desinformação Gerada por IA Sobrecarrega X Durante Conflito no Irã

Pontos principais
- O chatbot de IA Grok, da X, identificou incorretamente imagens de vídeo da guerra no Irã e postou imagens geradas por IA.
- Vídeos e imagens gerados por IA que mostram ataques de mísseis falsos, incêndios em prédios e temas antissemitas alcançaram milhões de visualizações.
- Oficiais iranianos e a mídia estatal estão usando ferramentas de IA para criar conteúdo de guerra exagerado.
- A X desmonetizou temporariamente contas com marcas de verificação azuis que compartilham vídeos de combate gerados por IA sem rótulos.
- A desinformação tradicional continua, como a atribuição errada de ataques de mísseis a uma escola.
- Especialistas pedem uma regulação mais forte da desinformação gerada por IA.
Especialistas em desinformação relatam que o chatbot de IA Grok, da X, repetidamente identificou incorretamente imagens de vídeo da guerra no Irã, enquanto contas pagas com marcas de verificação azuis compartilham imagens e vídeos gerados por IA que parecem realistas. O fluxo de conteúdo criado por IA inclui imagens falsas de mísseis, ataques a prédios de grande altura e narrativas antissemitas. A X respondeu temporariamente desmonetizando contas com marcas de verificação azuis que postam vídeos de combate gerados por IA sem rótulos, mas pesquisadores alertam que a plataforma permanece um centro de mídia falsa sofisticada. Os apelos por uma regulação mais forte da desinformação impulsionada por IA estão crescendo à medida que o conflito continua.
Ferramentas de IA Impulsionam um Surto de Conteúdo Falso
Especialistas em desinformação observaram que o chatbot de IA Grok, da X, falhou em verificar uma postagem sobre mísseis iranianos, identificando repetidamente o local e a data do vídeo original de forma incorreta. Após a verificação incorreta, o Grok postou uma imagem gerada por IA, ilustrando como o sistema pode produzir visuais enganosos. A plataforma mais ampla viu um aumento dramático em imagens e vídeos gerados por IA, incluindo imagens falsas de um prédio de grande altura no Bahrein em chamas, um bombardeiro B-2 americano supostamente abatido e membros da Força Delta supostamente capturados. Algumas dessas peças alcançaram milhões de visualizações antes de serem removidas.
Oficiais iranianos e a mídia estatal também usaram ferramentas de IA para criar vídeos que mostram a fabricação de mísseis em cavernas e outras cenas exageradas de danos. Além disso, redes pró-regime na X circularam postagens geradas por IA antissemitas que mostram judeus ortodoxos liderando soldados americanos para a guerra e celebrando baixas americanas. Um vídeo viral que mostrava uma fila de meninas caminhando pasto o ex-presidente Donald Trump em roupa íntima alcançou milhões de visualizações antes de ser removido.
Contra-Medidas Parciais da X
Em resposta ao surto de mídia de combate gerada por IA, a X anunciou uma política de desmonetização temporária para contas com marcas de verificação azuis que postam esses vídeos sem rótulo. A plataforma não divulgou quantas contas foram afetadas. Serviços premium que concedem marcas de verificação azuis foram comprados por alguns oficiais iranianos, proporcionando engajamento aumentado e potenciais ganhos com postagens.
Desinformação Não IA Continua
Narrativas falsas tradicionais persistem ao lado de falsificações de IA. Por exemplo, imagens de outras partes do conflito foram reaproveitadas para afirmar que o Irã disparou o míssil que atingiu uma escola primária em Minab, apesar da verificação de que um míssil de cruzeiro Tomahawk americano atingiu uma base naval próxima. Isso ilustra a mistura de desinformação gerada por IA e convencional que circula na X.
Apelos por Regulação Mais Forte
Especialistas alertam que a facilidade de criar conteúdo gerado por IA com poucas consequências ameaça o discurso factual. O Instituto de Diálogo Estratégico destacou o uso de IA para impulsionar narrativas abertamente antissemitas, enquanto analistas notaram que as ferramentas de detecção são inconsistentes. O Conselho de Supervisão da Meta criticou a abordagem de rotulagem da empresa como insuficiente para a velocidade e escala da desinformação impulsionada por IA, especialmente durante crises. Pesquisadores argumentam que, sem uma regulação robusta, a disseminação de notícias falsas baseadas em IA poderia erodir um mundo baseado em fatos.