OpenAI Desenvolve Versão Dedicada para Adolescentes do ChatGPT

OpenAI Is Building a Teen-Friendly Version of ChatGPT

Pontos principais

  • OpenAI está construindo uma versão do ChatGPT personalizada para usuários abaixo de 18 anos.
  • Tecnologia de previsão de idade direciona usuários incertos para a experiência de adolescentes.
  • Filtros mais rigorosos bloqueiam discussões flirtatious e de autolesão.
  • Resposta a crises pode alertar pais e contatar autoridades se necessário.
  • Controles parentais incluem vinculação de contas e configurações de "horas de silêncio".
  • Lançamento está planejado para o final do ano em meio a intensificada escrutínio legislativo.

OpenAI anunciou uma nova versão do ChatGPT projetada especificamente para usuários abaixo de 18 anos. A experiência focada em adolescentes inclui tecnologia de previsão de idade que direciona usuários mais jovens longe do modelo padrão, filtros de conteúdo mais rigorosos que bloqueiam discussões flirtatious ou de autolesão, e resposta a crises embutida que pode alertar pais ou autoridades.

OpenAI Introduz Experiência de ChatGPT Específica para Adolescentes

OpenAI divulgou que está criando uma versão separada do seu chatbot ChatGPT para adolescentes. A iniciativa é apresentada como uma medida de segurança importante, visando proteger usuários mais jovens de conteúdo e interações potencialmente prejudiciais.

Verificação de Idade e Roteamento Padrão

O novo sistema utiliza tecnologia de previsão de idade para identificar usuários que parecem ter menos de 18 anos. Quando o modelo não pode avaliar com confiança a idade de um usuário, ele automaticamente direciona para a experiência específica para adolescentes, garantindo que usuários mais jovens sejam mantidos fora da versão padrão.

Filtros de Conteúdo e Limites de Conversa

Filtros embutidos são mais rigorosos do que aqueles na versão padrão do chatbot. Eles bloqueiam diálogos flirtatious e qualquer discussão sobre autolesão, mesmo quando apresentados em um contexto fictício ou de escrita criativa. Isso visa reduzir a exposição a tópicos que poderiam afetar negativamente a saúde mental dos adolescentes.

Resposta a Crises e Alertas para Pais

Se um adolescente expressar pensamentos suicidas, o sistema pode tentar alertar os pais do usuário e, em situações de emergência, pode contatar autoridades. Essa função de resposta a crises é projetada para fornecer assistência rápida quando um usuário parece estar em perigo.

Controles Parentais e Vinculação de Contas

Pais podem vincular suas contas ao perfil de um adolescente, definir regras de resposta específicas e impor "horas de silêncio" durante as quais o aplicativo é inacessível. Esses controles dão aos guardiões supervisão direta de como o chatbot interage com seus filhos.

Contexto Regulatório e Pressão Legislativa

O anúncio chega em meio a uma audiência no Senado que examina as ameaças potenciais que a IA representa para os jovens. Legislativos intensificaram a pressão sobre as empresas de tecnologia para melhorar as funcionalidades de segurança para menores após processos que alegam que as plataformas de IA contribuíram para desafios de saúde mental.

Comparações com a Indústria

A ação da OpenAI reflete ações anteriores de outras empresas de tecnologia que introduziram ambientes protegidos para audiências mais jovens, como uma versão para crianças de uma plataforma de vídeo, em resposta à crítica e à escrutínio regulatório.

Lançamento Planejado

A OpenAI pretende lançar a experiência de ChatGPT focada em adolescentes até o final do ano, posicionando-a como uma solução proativa para abordar preocupações sobre interações de IA com menores.

Recursos para Quem Está em Crise

Além das novas funcionalidades de segurança, o anúncio reitera que indivíduos que experimentam perigo imediato devem ligar para os serviços de emergência, e aqueles com pensamentos suicidas nos Estados Unidos podem entrar em contato com a Linha Nacional de Prevenção ao Suicídio em 988.

#OpenAI#ChatGPT#modo para adolescentes#segurança de IA#controles parentais#verificação de idade#legislação#saúde mental#tecnologia#regulação de IA

Também disponível em: