OpenAI lança recurso de Contato Confiable para alertar adultos designados quando usuários do ChatGPT mostram risco de autolesão

Pontos principais
- A OpenAI introduz o Contato Confiable, permitindo que os usuários nomeiem um adulto confiável para alertas de segurança.
- A IA sinaliza linguagem de autolesão; os usuários são alertados antes de qualquer contato ser notificado.
- Revisores humanos avaliam casos sinalizados; alertas são enviados sem transcrições de chat.
- O recurso foi construído com a ajuda de especialistas em saúde mental e uma rede de mais de 260 médicos.
- Os usuários podem adicionar, alterar ou remover um Contato Confiable a qualquer momento.
- Alguns veem a ferramenta como uma rede de segurança; outros se preocupam com o monitoramento da IA e o estigma.
A OpenAI começou a lançar um novo recurso de Contato Confiable para o ChatGPT, que permite que os usuários nomeiem um adulto confiável que pode ser notificado se a IA detectar sinais de autolesão. O sistema sinaliza conversas de risco, alerta o usuário e, em seguida, envia o caso para uma equipe de revisão humana antes de qualquer alerta ser enviado. As notificações são entregues por e-mail, mensagem de texto ou mensagem dentro do aplicativo, sem compartilhar transcrições de chat.
A OpenAI está expandindo sua ferramenta de segurança para o ChatGPT com um recurso chamado Contato Confiable, agora em lançamento limitado. Os usuários podem tocar em seu perfil, selecionar um adulto confiável e esperar que essa pessoa aceite o papel. Uma vez ativo, o sistema monitora as conversas para linguagem que sugere um risco sério de autolesão. Se a IA sinalizar tal conteúdo, o usuário recebe um aviso de que o contato designado pode ser alertado.
Uma equipe de revisão humana especialmente treinada avalia a situação. Somente quando os revisores consideram o risco genuíno, o Contato Confiable recebe uma notificação por e-mail, mensagem de texto ou alerta dentro do aplicativo, solicitando que ele verifique com o usuário. A OpenAI afirma que os alertas não incluem transcrições de chat ou histórico de conversa detalhado, preservando a privacidade do usuário. Os usuários retêm o controle total - eles podem remover ou substituir seu Contato Confiable a qualquer momento.
O recurso foi construído com orientação de profissionais de saúde mental, especialistas em prevenção de suicídio e uma rede global de mais de 260 médicos que abrange 60 países. A OpenAI posiciona o Contato Confiable como uma extensão de seus controles parentais e barreiras de segurança existentes, reconhecendo que o ChatGPT agora funciona para muitos como mais do que uma ferramenta de produtividade - pode atuar como um confidente, coach de vida ou até mesmo um terapeuta.
O CEO da OpenAI, Sam Altman, observou anteriormente que os usuários mais jovens tratam o ChatGPT como um sistema operacional para decisões de vida, consultando a IA sobre tudo, desde movimentos de carreira até relacionamentos pessoais. Essa dependência subjaz à iniciativa da empresa de incorporar infraestrutura de apoio emocional diretamente no produto.
As reações ao lançamento são mistas. Alguns usuários veem a capacidade de nomear um adulto confiável como tranquilizadora, especialmente para indivíduos vulneráveis que poderiam sofrer em silêncio. Outros encontram a noção de monitoramento dirigido por IA perturbadora. Em uma entrevista recente, Amy Sutton, da Freedom Counselling, advertiu que a vigilância da IA poderia exacerbate o estigma da saúde mental, levando as pessoas a esconder sinais de angústia e potencialmente aprofundar o problema.
A abordagem da OpenAI reflete uma tendência mais ampla da indústria: à medida que os sistemas de IA se tornam mais integrados à vida diária, as empresas estão lidando com o equilíbrio entre segurança do usuário e privacidade. O Contato Confiable ilustra uma tentativa de fornecer uma rede de segurança enquanto limita a exposição de dados, mas também levanta questões sobre o quanto os usuários estão confortáveis com alertas automatizados e revisão humana de suas conversas privadas.
Por enquanto, o recurso permanece limitado a usuários que optam por participar e designam um contato. A OpenAI não divulgou um cronograma para uma liberação mais ampla, mas a empresa afirma que continuará a aprimorar o sistema com base no feedback de especialistas em saúde mental e uso no mundo real.