Estudo Descobre que Conversas no ChatGPT Revelam Traços de Personalidade dos Usuários

Pontos principais
- Pesquisadores da ETH Zurich combinaram 62.090 conversas no ChatGPT com pontuações de personalidade auto-relatadas.
- Um modelo de IA afinado previu abertura, conscienciosidade, extroversão, concordância e neuroticismo acima do acaso.
- A previsão de extroversão melhorou até 44% em relação à suposição aleatória, especialmente em conversas relacionadas à saúde mental.
- Sinais específicos de tópico - religião, humor, estado mental - aprimoraram as previsões para outros traços.
- O uso mais frequente do ChatGPT aumentou a precisão do perfil, levantando preocupações para a base de 800 milhões de usuários.
- Os autores alertam que perfis de personalidade poderiam permitir publicidade direcionada, persuasão ou campanhas de influência.
- Excluir o histórico de conversas pode reduzir a quantidade de dados disponíveis para perfis.
- A OpenAI ainda não comentou; o estudo adiciona a debates em curso sobre privacidade e ética de IA.
Pesquisadores da ETH Zurich analisaram mais de 62.000 interações reais no ChatGPT e demonstraram que um modelo de IA pode prever as cinco principais dimensões de personalidade - abertura, conscienciosidade, extroversão, concordância e neuroticismo - com precisão bem acima do acaso. O trabalho, publicado no arXiv, sugere que conversas rotineiras, mesmo sobre tópicos casuais, contêm sinais suficientes para perfilar, levantando novas preocupações sobre privacidade e o potencial para manipulação direcionada.
Cientistas da ETH Zurich demonstraram que interações cotidianas com o ChatGPT da OpenAI podem ser transformadas em um perfil de personalidade surpreendentemente preciso. Ao combinar 62.090 conversas anonimizadas de 668 voluntários com as pontuações de personalidade auto-relatadas dos participantes, a equipe treinou um modelo afinado para classificar cada traço do usuário como baixo, médio ou alto. O modelo superou a suposição aleatória em todas as cinco dimensões, com a extroversão se destacando como a mais fácil de inferir - até 44% melhor do que o acaso.
Os pesquisadores descobriram que certos tópicos de discussão aprimoram as previsões do modelo. Conversas que abordaram questões de saúde mental aumentaram a precisão para a extroversão, enquanto conversas religiosas correlacionaram fortemente com a conscienciosidade. Referências ao humor ou estado mental tornaram a abertura mais discernível. Em resumo, mesmo diálogos aparentemente inócuos carregam sinais comportamentais suficientes para que uma máquina leia a composição interna de um usuário.
A frequência de uso também foi importante. Quanto mais um participante interagia com o ChatGPT, mais clara se tornava a sinalização de personalidade. Essa descoberta destaca uma implicação mais ampla: à medida que a base de usuários da plataforma cresce - mais de 800 milhões de usuários ativos por mês em janeiro de 2026 -, o conjunto de dados coletivo poderia permitir perfis em larga escala sem precedentes.
De acordo com os autores do estudo - Derya Cögendez, Verena Zimmermann e Noé Zufferey -, os resultados levantam alarmes para os provedores de serviços que já coletam dados de conversas. Eles alertam que um perfil de personalidade detalhado poderia ser usado para publicidade hiper-direcionada, persuasão personalizada ou mesmo campanhas de influência coordenadas. Os autores enfatizam que os usuários devem tratar o ChatGPT como qualquer coisa, menos um diário privado.
Embora o artigo não proponha mudanças políticas imediatas, ele aponta para etapas práticas que os indivíduos podem tomar. Excluir o histórico de conversas regularmente, por exemplo, removeria interações recentes do conjunto de treinamento do modelo, limitando a quantidade de informações pessoais retidas. Os autores também pedem maior transparência dos desenvolvedores de IA sobre como os dados de conversa são armazenados e usados.
Observadores da indústria notaram que o estudo chega em um momento em que a OpenAI e outras empresas estão experimentando recursos de monetização, como publicidade dentro do aplicativo. Se os anunciantes ganharem acesso a segmentos baseados em personalidade derivados de logs de conversa, a linha entre conteúdo relevante e manipulação pode se tornar ainda mais borrada. Os pesquisadores argumentam que as apostas éticas são altas e pedem um diálogo entre tecnólogos, reguladores e o público.
Em resposta às descobertas, a OpenAI ainda não emitiu um comentário formal. No entanto, o artigo adiciona a um corpo crescente de trabalhos que examinam os riscos de privacidade ocultos dos grandes modelos de linguagem. À medida que os assistentes de IA se tornam mais integrados à vida diária, o equilíbrio entre conveniência e proteção de dados pessoais provavelmente moldará a próxima onda de políticas e design de produtos.