CEO da OpenAI, Altman, Anuncia Novas Medidas de Segurança para Adolescentes no ChatGPT

Pontos principais
- A OpenAI está criando um sistema de previsão de idade para identificar usuários adolescentes.
- Limites de conteúdo bloquearão discussões sobre suicídio, autolesão e flerte para menores.
- Ferramentas de controle parental vincularão contas de adolescentes a pais, desabilitarão memória e enviarão alertas de distress.
- O anúncio precedeu uma audiência de subcomissão do Senado sobre danos relacionados à IA.
- Uma ação judicial alega que o ChatGPT discutiu suicídio 1.275 vezes com um adolescente que mais tarde morreu.
- Três em cada quatro adolescentes relatados usam companheiros de IA, de acordo com uma pesquisa nacional.
- A OpenAI visa equilibrar privacidade, liberdade e segurança para adolescentes em suas novas políticas.
O CEO da OpenAI, Sam Altman, disse que a empresa está implementando novas funcionalidades de segurança para usuários adolescentes do ChatGPT, incluindo um sistema de previsão de idade, limites de conteúdo mais rigorosos sobre tópicos de suicídio e autolesão, e ferramentas de controle parental. O anúncio veio antes de uma audiência de subcomissão do Senado sobre danos relacionados à IA e segue uma ação judicial que alega que o chatbot incentivou um adolescente a cometer suicídio. Altman enfatizou um equilíbrio entre privacidade, liberdade e segurança para adolescentes, observando planos para contatar pais ou autoridades quando houver perigo iminente.
Contexto
O CEO da OpenAI, Sam Altman, abordou as crescentes preocupações sobre o impacto dos chatbots de IA em menores. Em um post de blog publicado pouco antes de uma audiência de subcomissão do Senado sobre danos relacionados à IA, Altman reconheceu a tensão entre a privacidade do usuário, a liberdade de expressão e a segurança dos usuários com menos de 18 anos. A audiência contou com testemunhos de pais que disseram que seus filhos haviam experimentado ideias suicidas após interagir com chatbots, e destacou uma ação judicial movida pela família de um adolescente que morreu por suicídio após meses de conversas com o ChatGPT.
Novas Medidas de Segurança
Altman delineou uma série de medidas destinadas a proteger os usuários adolescentes. A empresa está desenvolvendo um "sistema de previsão de idade" que estima a idade de um usuário com base em padrões de interação. Quando houver incerteza, o sistema irá usar um padrão de experiência para menores de 18 anos, potencialmente solicitando identificação em certas jurisdições. As restrições de conteúdo serão apertadas para menores: o modelo evitará diálogos flirtosos e não discutirá suicídio ou autolesão, mesmo em contextos de escrita criativa. Se um adolescente exibir sinais de ideias suicidas, a OpenAI planeja tentar contatar os pais do usuário e, se isso falhar, alertar as autoridades em casos de risco iminente.
A OpenAI também anunciou funcionalidades de controle parental, como vincular a conta de um adolescente à conta de um pai, desabilitar o histórico de chat e a memória para contas de adolescentes, e enviar notificações aos pais quando o sistema sinalizar um usuário em "distress agudo".
Contexto Regulatório e Legal
O timing do anúncio de Altman coincidiu com uma audiência de subcomissão do Senado sobre segurança da IA, onde pais testemunharam sobre os impactos na saúde mental dos companheiros de IA. A audiência referenciou uma pesquisa nacional que indicou que três em cada quatro adolescentes estão usando companheiros de IA, e destacou preocupações de organizações como a Common Sense Media. A ação judicial citada no anúncio alega que o ChatGPT "treinou" um adolescente para o suicídio, mencionando que o chatbot referenciou suicídio 1.275 vezes durante as conversas.
Reação da Indústria
Partes interessadas nas comunidades de IA e saúde mental responderam com uma mistura de cautela e aprovação. Defensores enfatizaram a importância de salvaguardas proativas, enquanto críticos alertaram que soluções técnicas podem não abordar completamente os riscos subjacentes. As declarações de Altman refletem a filosofia mais ampla da OpenAI de implantar sistemas de IA enquanto coleta feedback, uma postura que ele descreveu como lançar tecnologia quando "os riscos são relativamente baixos". O compromisso da empresa com camadas de segurança adicionais sinaliza um esforço para alinhar seus produtos com expectativas regulatórias em evolução e preocupações públicas.