Estudo Descobre que 73% dos Usuários Aceitam Respostas Erradas de IA, Levantando Preocupações Sobre Confiança

Pontos principais
- Across 1,372 participants, users accepted incorrect AI answers 73.2% of the time.
- Only 19.7% of faulty AI responses were overruled by participants.
- High trust in AI correlates with greater susceptibility to AI errors.
- Higher fluid IQ scores predict more frequent challenges to AI suggestions.
- Researchers label the phenomenon "cognitive surrender" – effortless deference to AI.
- Study suggests benefits in domains where AI outperforms humans, but warns of risks.
- Authors call for tools that help users critically assess AI output.
Pesquisadores analisando 1.372 participantes em mais de 9.500 julgamentos de decisão descobriram que as pessoas aceitam respostas geradas por IA que estão erradas 73,2% do tempo, enquanto apenas as revogam em 19,7% dos casos. O estudo vincula alta confiança em sistemas de inteligência artificial a uma maior probabilidade de ser enganado, enquanto indivíduos com maior inteligência fluida são mais propensos a questionar a IA. Os autores alertam que, embora a dependência de IA possa ser vantajosa quando a tecnologia é superior, a tendência atual de tratar a saída de IA como autoritativa cria uma vulnerabilidade estrutural no julgamento humano.
Um novo estudo publicado esta semana revela que a maioria das pessoas prontamente incorpora saídas de inteligência artificial (IA) em suas decisões, mesmo quando essas saídas estão demonstravelmente erradas. Pesquisadores entrevistaram 1.372 voluntários que completaram mais de 9.500 julgamentos individuais envolvendo respostas geradas por IA. Os participantes aceitaram raciocínio defeituoso da IA 73,2 por cento do tempo e a revogaram apenas 19,7 por cento do tempo.
O experimento opôs um grande modelo de linguagem contra participantes humanos em uma série de questões de lógica e conhecimento. Quando a IA respondeu com confiança, os sujeitos trataram sua resposta como epistemicamente autoritativa, abaixando o limiar para escrutínio. Os autores descrevem esse fenômeno como "rendição cognitiva", um estado em que os usuários entregam seu raciocínio a uma máquina com mínima resistência.
Confiança, inteligência e suscetibilidade
Dados da pesquisa coletados antes dos julgamentos mostraram um padrão claro: participantes que expressaram alta confiança em IA foram significativamente mais propensos a serem enganados por respostas erradas. Em contraste, indivíduos que obtiveram altos escores em testes de inteligência fluida separados exibiram uma postura mais cética, revogando as sugestões defeituosas da IA com mais frequência. Os pesquisadores observam que a inteligência fluida parece reforçar sinais meta-cognitivos que normalmente promovem a deliberação, contrariando o apelo de saídas de IA confiantes.
"Saídas fluentes e confiantes são tratadas como epistemicamente autoritativas, abaixando o limiar para escrutínio e atenuando os sinais meta-cognitivos que normalmente roteiam uma resposta para deliberação", escreveram os autores do estudo. As descobertas sugerem que disposições pessoais em relação à tecnologia podem moldar como as pessoas avaliam informações, com a confiança agindo como uma espada de dois gumes.
Implicações e advertências
Embora os autores destaquem que a rendição cognitiva não é intrinsicamente irracional, eles alertam que a dependência de um sistema que erra metade do tempo carrega riscos óbvios. Eles argumentam, no entanto, que em domínios onde um IA estatisticamente superior pode superar os humanos — como previsão probabilística, avaliação de risco ou análise de dados maciça — a mesma disposição para deferir ao julgamento da máquina pode produzir melhores resultados.
"À medida que a dependência aumenta, o desempenho acompanha a qualidade da IA, subindo quando é precisa e caindo quando é defeituosa, ilustrando as promessas da superinteligência e exposta uma vulnerabilidade estrutural da rendição cognitiva", concluíram os pesquisadores. Em termos práticos, o estudo alerta que os usuários devem permanecer vigilantes, especialmente quando as saídas de IA parecem fluentes e confiantes.
A pesquisa adiciona a uma crescente evidência sobre interação humano-IA, destacando a necessidade de melhor transparência e ferramentas de avaliação crítica. À medida que os sistemas de IA se tornam mais incorporados na tomada de decisões do dia a dia, entender quando e por que as pessoas abandonam seu próprio raciocínio será essencial para projetar salvaguardas que prevenham erros caros.