OpenAI Defende Nova Rota de Segurança à medida que Usuários Criticam a Troca de Modelo

OpenAI responds to furious ChatGPT subscribers who accuse it of secretly switching to inferior models

Pontos principais

  • A OpenAI adicionou um sistema de rota de segurança que redireciona conversas sensíveis para um modelo de IA conservador.
  • A rota ativa em uma base por mensagem e é temporária.
  • Usuários pagantes relatam frustração, afirmando que não podem permanecer no modelo escolhido.
  • Atualmente, não há opção para os usuários desativarem a rota de segurança.
  • O executivo da OpenAI, Nick Turley, explicou que a funcionalidade é destinada a proteger usuários que mostram sinais de distresse emocional.
  • A empresa cita a responsabilidade de salvaguardar usuários vulneráveis, incluindo audiências mais jovens.
  • Críticos comparam a mudança a controles parentais bloqueados, argumentando que limita a liberdade do usuário.

A OpenAI introduziu um sistema de rota de segurança que redireciona conversas do ChatGPT para um modelo de IA mais conservador quando tópicos sensíveis ou emocionais são detectados. Usuários pagantes expressaram forte frustração, afirmando que a mudança os força a sair de seus modelos preferidos sem uma opção para cancelar. O executivo da OpenAI, Nick Turley, explicou que a rota opera em uma base por mensagem para melhor apoiar usuários que mostram sinais de distresse mental ou emocional.

Contexto da Mudança

A OpenAI recentemente implementou novas barreiras de segurança para o ChatGPT. O sistema monitora cada mensagem em busca de sinais de sensibilidade, conteúdo emocional ou preocupações legais potenciais. Quando esses sinais são detectados, a conversa é redirecionada silenciosamente para um modelo de IA mais conservador. Essa rota é temporária e aplicada em uma base por mensagem.

Reação dos Usuários

Muitos assinantes pagantes expressaram raiva em plataformas sociais, alegando que a mudança os força a sair do modelo que selecionaram, como o GPT-4o. Os usuários observam que atualmente não há opção para desativar a rota, e as mudanças ocorrem sem indicação clara. Alguns descrevem a experiência como "ser forçado a assistir TV com os controles parentais bloqueados", mesmo quando não há crianças presentes.

Resposta da OpenAI

O executivo da OpenAI, Nick Turley, abordou as preocupações publicamente, afirmando que a rota de segurança é projetada especificamente para "tópicos sensíveis e emocionais". Ele enfatizou que a funcionalidade é parte de um esforço mais amplo para melhorar como o ChatGPT lida com sinais de distresse mental e emocional, alinhando-se com posts de blog anteriores sobre segurança do usuário. Turley descreveu o sistema como uma medida temporária que ativa apenas quando necessário.

Raciocínio por trás da Funcionalidade

A empresa argumenta que tem a responsabilidade de proteger usuários vulneráveis, incluindo aqueles que podem estar experimentando distresse. Redirecionando para um modelo mais cauteloso, a OpenAI visa fornecer respostas que são menos prováveis de exacerbarem situações sensíveis. Essa abordagem pretende equilibrar as capacidades abertas do chatbot com salvaguardas para o bem-estar do usuário.

Debate em Curso

A controvérsia destaca uma tensão entre a autonomia do usuário e a segurança da plataforma. Embora alguns usuários welcome proteções mais fortes, muitos sentem que a falta de transparência e controle compromete seu fluxo de trabalho. A discussão deve continuar à medida que a OpenAI avalia feedback e potencialmente refina o mecanismo de rota.

#OpenAI#ChatGPT#Nick Turley#troca de modelo#rota de segurança#ética de IA#reação dos usuários#GPT-4o#saúde mental#modelo de IA

Também disponível em:

OpenAI Defende Nova Rota de Segurança à medida que Usuários Criticam a Troca de Modelo | AI News