Chatbots Citam Mídia Estatal Russa em Respostas Sobre Conflito na Ucrânia

Pontos principais
- O ISD testou ChatGPT, Gemini, DeepSeek e Grok com consultas sobre a guerra na Ucrânia.
- Cerca de um quinto das respostas citaram mídia afiliada ao estado russo ou sancionada.
- Prompts tendenciosos ou maliciosos aumentaram a probabilidade de citações de fontes russas.
- O ChatGPT mostrou a maior frequência de referências à mídia russa; o Gemini se saiu comparativamente melhor.
- Redes de desinformação exploram lacunas de dados, alimentando conteúdo de baixa qualidade que os modelos de IA recuperam.
- A OpenAI notou esforços contínuos para limitar informações falsas; as outras empresas não comentaram.
- As descobertas destacam preocupações regulatórias para as regras da UE que governam grandes plataformas online.
Pesquisadores do Institute of Strategic Dialogue examinaram quatro chatbots de IA amplamente utilizados e descobriram que eles frequentemente citam mídia afiliada ao estado russo e outras fontes sancionadas ao responder perguntas sobre a guerra na Ucrânia. O estudo destaca como lacunas de dados podem ser exploradas por redes de desinformação e levanta preocupações sobre a capacidade de grandes modelos de linguagem de filtrar conteúdo proibido, especialmente dentro da União Europeia.
Contexto
O Institute of Strategic Dialogue (ISD) realizou um teste sistemático de quatro sistemas de IA conversacional populares — ChatGPT, Gemini do Google, DeepSeek e Grok da xAI — para ver como eles lidam com consultas relacionadas ao conflito entre Rússia e Ucrânia. Os pesquisadores apresentaram uma mistura de prompts neutros, tendenciosos e deliberadamente maliciosos em vários idiomas europeus, visando descobrir se os bots citariam fontes que foram sancionadas pela União Europeia por disseminar desinformação.
Principais Conclusões
Em toda a suite de perguntas, os bots citaram veículos de comunicação ligados ao estado russo, como Sputnik, RT e outros sites vinculados a agências de inteligência russas. A análise relatou que aproximadamente um quinto de todas as respostas incluíam referências a essas fontes sancionadas. A frequência de citações aumentou quando as consultas eram mais tendenciosas ou maliciosas, indicando um padrão de viés de confirmação dentro dos modelos. Entre os quatro sistemas, o ChatGPT foi notado por fornecer o maior número de referências à mídia russa, enquanto o Gemini exibiu avisos de segurança com mais frequência e produziu os melhores resultados gerais em termos de limitação de conteúdo proibido.
Mecanismos de Influência
O estudo sugere que redes de desinformação exploram "vazios de dados" — áreas onde a informação confiável é escassa — inundando a web com narrativas falsas que os sistemas de IA podem então recuperar. Quando os usuários recorrem a chatbots para obter informações em tempo real, os modelos podem se basear nessas fontes de baixa qualidade, ampliando involuntariamente a propaganda apoiada pelo estado. Os pesquisadores observaram que os bots frequentemente vinculavam contas de mídia social e novos domínios associados a esforços de desinformação russos, demonstrando ainda mais como o ecossistema pode ser armado.
Respostas e Implicações
A OpenAI reconheceu que toma medidas para prevenir a disseminação de informações falsas ou enganosas, enfatizando melhorias contínuas em seus modelos e salvaguardas de plataforma. O representante do Google não comentou, enquanto a DeepSeek também permaneceu silenciosa. As descobertas levantam questões regulatórias, especialmente à medida que a União Europeia considera regras mais rigorosas para grandes plataformas online que hospedam conteúdo gerado por usuários. Os autores do ISD argumentam que, além da remoção, deve haver contextualização para ajudar os usuários a entender a proveniência e o status de sanção das fontes citadas.
Contexto Mais Amplo
Desde o início do conflito, as autoridades russas intensificaram o controle sobre a mídia doméstica e expandiram campanhas de desinformação no exterior. A integração de ferramentas de IA na busca de informações do dia a dia aumenta as apostas, à medida que os grandes modelos de linguagem se tornam um ponto de referência primário para muitos usuários. O estudo destaca a necessidade de guardrails robustos e práticas de fontes transparentes para salvaguardar a integridade das informações entregues por chatbots de IA.