Equipe de segurança da OpenAI alerta contra lançamento do modo adulto do ChatGPT

Pontos principais
- A equipe de segurança interna da OpenAI duvida publicamente da capacidade da empresa de bloquear menores de idade do conteúdo adulto.
- Um executivo sênior de segurança deixou a empresa após se opor ao lançamento do modo adulto.
- Um segundo ex-funcionário alertou os pais para não confiar nas afirmações da OpenAI sobre a nova funcionalidade.
- A OpenAI anunciou um plano de monitoramento para efeitos potenciais de longo prazo do modo adulto.
- Um bug anterior permitiu que menores de idade acessassem erotismo gráfico, levando a empresa a prometer uma solução.
- Críticos destacam métodos de verificação de idade fracos e o risco de menores de idade contornarem as salvaguardas.
- Pais permanecem céticos sobre a capacidade da OpenAI de proteger jovens usuários.
Especialistas internos de segurança da OpenAI se opuseram publicamente ao lançamento de um novo "modo adulto" para o ChatGPT, questionando a capacidade da empresa de manter menores de idade longe de conteúdo explícito. A dissidência segue a saída de um executivo sênior de segurança que havia se oposto à funcionalidade, e um segundo ex-funcionário que alertou os pais para não confiar nas garantias da OpenAI. Um bug recente que permitiu que menores de idade vissem erotismo gráfico aumenta as preocupações, levando a OpenAI a prometer um plano de monitoramento, enquanto críticos permanecem céticos sobre sua eficácia.
Fundo da disputa
Fontes familiarizadas com discussões internas na OpenAI expressaram fortes dúvidas sobre se as ferramentas da empresa podem efetivamente bloquear crianças de acessar material proibido. As preocupações centram-se no próximo "modo adulto" que permitiria conteúdo mais maduro nas respostas do ChatGPT.
Dissonância interna e saída de funcionários
Dois ex-funcionários da equipe de segurança se pronunciaram. O primeiro, um executivo sênior de segurança, deixou a empresa após se opor ao lançamento do modo adulto. A OpenAI negou que a saída estivesse relacionada ao debate de política, mas o ex-funcionário criticou diretamente a capacidade da empresa de prevenir menores de idade de encontrar conteúdo gráfico ou exploratório. Um segundo ex-funcionário, que deixou a empresa no outono passado, alertou os pais para não confiar nas afirmações da OpenAI sobre a nova funcionalidade.
Resposta da empresa
Em reação às críticas, um porta-voz da OpenAI disse que a empresa "tem um plano desenvolvido para monitorar uma variedade de efeitos potenciais de longo prazo do modo adulto, tanto positivos quanto negativos". A declaração sugere que a OpenAI pretende acompanhar os resultados após a implantação da funcionalidade, embora críticos observem que o plano parece ter sido elaborado com os mesmos especialistas que agora se opõem publicamente ao lançamento.
Problemas técnicos que aumentam o alarme
O debate é agravado por um bug que permitiu que menores de idade recebessem erotismo gráfico do ChatGPT. O defeito surgiu quando a OpenAI começou a testar saídas mais permissivas no início deste ano. De acordo com o próprio reconhecimento da empresa, o bug permitiu que as respostas fugissem das diretrizes pretendidas, que visavam restringir "conteúdo sensível, como erotismo, a contextos específicos, como relatórios científicos, históricos ou de notícias". A OpenAI disse que está ativamente implantando uma solução para limitar essas gerações.
Implicações para pais e reguladores
A combinação de dissonância interna, saída de funcionários e falhas técnicas deixa os pais desconfiados das salvaguardas da OpenAI. Críticos argumentam que controles de idade ineficazes e a possibilidade de menores de idade habilidosos contornarem os portais podem expor jovens usuários a material prejudicial. A situação também levanta questões sobre como a empresa abordará efeitos potenciais de longo prazo e se uma supervisão externa pode ser necessária.
Posição pública da OpenAI
Embora a empresa não tenha respondido diretamente às recentes perguntas da mídia, continua a enfatizar seu compromisso com o monitoramento e ajuste do modo adulto com base em dados emergentes. A mensagem pública da empresa destaca uma disposição para abordar "efeitos potenciais de longo prazo", mas a dissonância de sua própria equipe de segurança sugere uma lacuna entre avaliações internas e garantias externas.