OpenAI Relata Mais de Um Milhão de Usuários Semanais do ChatGPT Discutindo Suicídio

Pontos principais
- OpenAI relata que 0,15% dos usuários ativos semanais do ChatGPT discutem planejamento ou intento suicida, excedendo um milhão de pessoas a cada semana.
- Centenas de milhares de usuários mostram aumento da dependência emocional, psicose ou mania em conversas com o chatbot.
- Mais de 170 especialistas em saúde mental foram consultados para melhorar a resposta do modelo a tópicos de saúde mental.
- O novo modelo GPT-5 alcança 91% de conformidade em testes de segurança relacionados a suicídio, em comparação com 77% na versão anterior.
- OpenAI está adicionando benchmarks de avaliação para dependência emocional e emergências de saúde mental não suicidas.
- Um sistema de previsão de idade e controles parentais mais rigorosos estão sendo introduzidos para proteger usuários infantis.
- A empresa enfatiza melhorias contínuas na segurança de diálogos de longo prazo e medidas de ética de IA mais amplas.
OpenAI divulgou que 0,15% dos usuários ativos semanais do ChatGPT engajam em conversas que incluem indicadores explícitos de planejamento ou intento suicida, representando mais de um milhão de pessoas a cada semana. A empresa também notou aumento da dependência emocional e sinais de psicose ou mania entre seus usuários.
OpenAI divulga dados de uso de saúde mental
OpenAI anunciou novos dados que ilustram quantos dos usuários do ChatGPT estão lidando com desafios de saúde mental. A empresa relatou que 0,15% de seus usuários ativos semanais têm conversas que contêm indicadores explícitos de planejamento ou intento suicida potencial. Com uma base de usuários que excede 800 milhões de usuários ativos semanais, esse percentual se traduz em mais de um milhão de indivíduos a cada semana.
Além dos indicadores suicidas, OpenAI disse que uma parcela semelhante de usuários exibe aumento da dependência emocional ao chatbot, e centenas de milhares mostram sinais de psicose ou mania durante interações semanais. Embora a empresa descreva esses tipos de conversas como "extremamente raros", ela reconhece que eles afetam centenas de milhares de pessoas regularmente.
Escala de conversas suicidas
Os números divulgados destacam uma escala substancial de preocupações de saúde mental dentro da plataforma de conversa impulsionada por IA. OpenAI estima que o número de usuários que discutem pensamentos ou planos suicidas a cada semana excede um milhão, sublinhando a importância de mecanismos de segurança robustos. A empresa também notou que a dependência emocional do ChatGPT e as manifestações de sintomas graves de saúde mental são observáveis em toda a base de usuários.
Participação de especialistas e melhorias no modelo
Para abordar esses desafios, OpenAI consultou mais de 170 especialistas em saúde mental. Esses clínicos observaram que a versão mais recente do ChatGPT responde de forma mais apropriada e consistente do que as versões anteriores. OpenAI afirma que seu novo modelo GPT-5 demonstra uma taxa de conformidade de 91% com os comportamentos desejados da empresa em avaliações focadas em conversas suicidas, em comparação com uma taxa de conformidade de 77% para a iteração anterior do GPT-5.
OpenAI também relata que o GPT-5 mostra desempenho melhorado em diálogos de longo prazo, uma área onde as salvaguardas anteriores eram menos eficazes. A empresa está adicionando novos benchmarks de avaliação que medem especificamente a dependência emocional e emergências de saúde mental não suicidas, expandindo sua linha de base de testes de segurança para modelos de IA.
Novas salvaguardas e proteção infantil
Além das melhorias no modelo, OpenAI está implementando controles adicionais destinados a proteger usuários mais jovens. A empresa está desenvolvendo um sistema de previsão de idade projetado para detectar automaticamente crianças que usam o ChatGPT e impor um conjunto mais rigoroso de salvaguardas para elas. Essas medidas incluem controles parentais mais rigorosos e a introdução de camadas de segurança que limitam a exposição a conteúdo potencialmente prejudicial.
Os esforços de OpenAI também se estendem a fornecer recursos para usuários em crise, com referências a linhas diretas de prevenção ao suicídio e serviços de texto, embora os detalhes específicos dos recursos não sejam enumerados na divulgação de dados.
Implicações e resposta da indústria
A divulgação desses números coloca as considerações de saúde mental no centro do diálogo contínuo sobre segurança de IA. Embora OpenAI enfatize melhorias no comportamento do modelo e a adição de salvaguardas orientadas por especialistas, o volume maciço de usuários que discutem pensamentos suicidas destaca um risco persistente que exige monitoramento contínuo. O compromisso público da empresa em consultar profissionais de saúde mental e melhorar os benchmarks de segurança sinaliza uma postura proativa, mas os dados também sublinham os desafios inerentes à escalabilidade de interações seguras de IA para uma base de usuários global maciça.
A divulgação de OpenAI chega em meio a uma maior escrutínio do impacto das plataformas de IA em populações vulneráveis. Ao quantificar a extensão das conversas suicidas e esboçar etapas concretas para mitigação, OpenAI fornece uma visão transparente da magnitude do problema e da estratégia de resposta da empresa.