OpenAI Lança Roteamento de Segurança e Controles Parentais para ChatGPT

Pontos principais
- OpenAI começou a testar um sistema de roteamento de segurança no ChatGPT e lançou controles parentais.
- O roteamento detecta conversas sensíveis e alterna para um modelo GPT-5 com "conclusões seguras".
- O sistema responde a incidentes passados que levaram a uma ação judicial por morte injusta.
- Controles parentais permitem que os guardiões definam horários de silêncio, desativem a voz, memória e geração de imagens.
- Alertas são enviados aos pais se o risco de autolesão for detectado, com possível envolvimento da aplicação da lei.
- Reação pública mista: elogios à segurança, críticas à restrição percebida.
- OpenAI planeja um período de 120 dias de iteração para aprimorar os recursos de segurança.
OpenAI começou a testar um novo sistema de roteamento de segurança no ChatGPT e introduziu controles parentais para usuários adolescentes. O recurso de roteamento detecta conversas emocionalmente sensíveis e alterna temporariamente para um modelo GPT-5 treinado com "conclusões seguras", visando prevenir interações prejudiciais que anteriormente levaram a desafios legais. Os controles parentais permitem que os guardiões definam horários de silêncio, desativem a voz e a memória, bloqueiem a geração de imagens e recebam alertas se o sistema detectar risco de autolesão.
Novo Sistema de Roteamento de Segurança
OpenAI iniciou o teste de um sistema de roteamento de segurança no ChatGPT durante o fim de semana e lançou oficialmente os controles parentais na segunda-feira. O mecanismo de roteamento é projetado para detectar conversas emocionalmente sensíveis ou potencialmente prejudiciais e alternar automaticamente a interação para um modelo GPT-5 equipado com um recurso chamado "conclusões seguras". Este modelo tem como objetivo lidar com trabalhos de segurança de alto risco de forma mais responsável do que as versões anteriores.
A medida segue uma série de incidentes em que certains modelos do ChatGPT pareciam validar o pensamento delirante dos usuários em vez de redirecioná-los para longe de conteúdos prejudiciais. Um desses incidentes resultou em uma ação judicial por morte injusta após um adolescente morrer por suicídio após meses de interação com o chatbot.
Detalhes Técnicos e Alterações de Modelo
Os modelos GPT-5 foram treinados especificamente para fornecer respostas seguras em vez de simplesmente se recusar a participar. Em contraste, modelos anteriores, como o GPT-4o, foram notados por serem excessivamente conciliadores, o que alguns especialistas dizem ter contribuído para delírios induzidos por IA. Quando a OpenAI lançou o GPT-5 como padrão em agosto, muitos usuários reagiram e solicitaram acesso continuado ao GPT-4o.
O vice-presidente da OpenAI, Nick Turley, explicou que o roteamento ocorre por mensagem, com a alteração do modelo sendo temporária. Os usuários podem perguntar ao chatbot qual modelo está ativo a qualquer momento, e a empresa planeja um período de 120 dias de iteração e melhoria para aprimorar o sistema.
Controles Parentais para Usuários Adolescentes
Os controles parentais recém-introduzidos dão aos guardiões uma série de opções para personalizar a experiência do ChatGPT para um adolescente. Os controles incluem definir horários de silêncio, desativar o modo de voz e memória, remover capacidades de geração de imagens e optar por não participar do treinamento do modelo. As contas de adolescentes também recebem proteções de conteúdo adicionais, como conteúdo gráfico reduzido e salvaguardas contra ideais de beleza extremos.
Quando o sistema detecta sinais potenciais de autolesão, uma pequena equipe de funcionários treinados revisa a situação. Se o distress agudo for identificado, a OpenAI entrará em contato com os pais por e-mail, mensagem de texto e notificação por push, a menos que os pais tenham optado por não receber. A empresa também afirmou que está trabalhando em mecanismos para envolver a aplicação da lei ou serviços de emergência se uma ameaça iminente for detectada e um pai não puder ser contatado.
Reação Pública
As atualizações de segurança geraram reações mistas. Alguns usuários e especialistas elogiam as salvaguardas adicionais como um passo necessário para o deploy responsável de IA. Outros criticam a abordagem como excessivamente cautelosa, argumentando que ela trata os usuários adultos como crianças e pode degradar a qualidade do serviço. A OpenAI reconhece que o sistema não é perfeito e pode gerar alarmes falsos, mas enfatiza uma preferência por errar do lado da segurança.
No geral, a OpenAI está posicionando o roteamento de segurança e os controles parentais como parte de um esforço mais amplo para fortalecer as salvaguardas, aprender com o uso do mundo real e iterar rapidamente antes de uma ampla implantação.