OpenAI Divulga Estimativas de Usuários do ChatGPT que Vivenciam Crises de Saúde Mental e Anuncia Melhorias no Modelo

Pontos principais
- OpenAI estima que 0,07% dos usuários ativos do ChatGPT podem exibir sinais de mania ou psicose semanalmente.
- Cerca de 0,15% dos usuários exibem linguagem que sugere planejamento ou intento suicida potencial.
- Outro 0,15% parece estar excessivamente ligado emocionalmente ao chatbot, possivelmente em detrimento de relacionamentos ou bem-estar no mundo real.
- O GPT-5 foi ajustado para reconhecer sinais de angústia e responder com empatia, evitando o reforço de crenças prejudiciais.
- A avaliação clínica de mais de 1.800 respostas mostrou que o GPT-5 reduziu respostas perigosas em 39% a 52% em comparação com o GPT-4o.
- OpenAI trabalhou com mais de 170 profissionais de saúde mental em todo o mundo para desenvolver as melhorias de segurança.
- A empresa reconhece as métricas internas e a limitada visão sobre o impacto no mundo real.
- Conversas mais longas historicamente degradam o desempenho do modelo, mas OpenAI relata progressos na abordagem desse problema.
OpenAI divulgou estimativas preliminares de quantos usuários ativos do ChatGPT podem exibir sinais de problemas de saúde mental graves, incluindo mania, psicose e ideia suicida, em uma semana típica. A empresa afirmou que os dados foram coletados com a colaboração de centenas de profissionais de saúde mental em todo o mundo. OpenAI também anunciou que seu novo modelo, GPT-5, foi ajustado para reconhecer sinais de angústia de forma mais confiável e responder com empatia, evitando a reforço de crenças prejudiciais. As atualizações visam direcionar os usuários para ajuda profissional e reduzir interações perigosas com o chatbot.
OpenAI Fornecer Primeiros Dados Sobre Riscos de Saúde Mental dos Usuários
OpenAI divulgou estimativas aproximadas da proporção de usuários ativos do ChatGPT que podem exibir possíveis sinais de emergências de saúde mental graves em uma semana. Trabalhando com mais de 170 psiquiatras, psicólogos e médicos de atenção primária em dezenas de países, a empresa calculou que aproximadamente 0,07 por cento dos usuários mostram possíveis sinais de mania ou psicose, enquanto cerca de 0,15 por cento exibem linguagem que indica planejamento ou intento suicida potencial. Um adicional de 0,15 por cento parece estar excessivamente ligado emocionalmente ao chatbot, priorizando-o sobre relacionamentos, obrigações ou bem-estar no mundo real.
Considerando a afirmação da OpenAI de 800 milhões de usuários ativos semanais, as estimativas se traduzem em aproximadamente 560.000 indivíduos que podem estar vivenciando mania ou psicose e cerca de 2,4 milhões que podem estar expressando pensamentos ou um vínculo insalubre com o modelo a cada semana.
Melhorias no Modelo Visam à Segurança
OpenAI afirmou que seu novo modelo de linguagem, GPT-5, foi aprimorado para melhor reconhecer sinais de angústia e responder de maneira que incentive a ajuda profissional. Em cenários em que os usuários apresentam pensamento delirante, o modelo é projetado para expressar empatia, abstendo-se de afirmar crenças infundadas. OpenAI forneceu um exemplo hipotético em que um usuário afirma ser alvo de aeronaves; o modelo reconhece os sentimentos do usuário, mas esclarece que nenhuma força externa pode ler ou inserir pensamentos.
Clinicos avaliaram mais de 1.800 respostas do modelo envolvendo psicose potencial, suicídio e vínculo emocional. Em comparação com o GPT-4o, o GPT-5 reduziu respostas indesejadas em 39 por cento a 52 por cento nessas categorias, de acordo com as métricas internas da OpenAI.
OpenAI reconheceu que suas métricas são projetadas internamente e que os resultados no mundo real permanecem incertos. A empresa não divulga os mecanismos exatos que usa para sinalizar angústia, observando que pode considerar o histórico de conversa mais amplo do usuário. OpenAI também destacou que conversas mais longas historicamente degradam a confiabilidade do modelo, mas afirma ter feito progressos significativos na mitigação desse problema.
Embora os dados sugiram que um número considerável de usuários possa estar em risco, OpenAI advertiu que detectar e medir esses sinais raros é difícil e que pode haver sobreposição entre as categorias identificadas.