OpenAI Solicita Lista de Participantes do Memorial em Processo de Suicídio de Adolescente

OpenAI requested memorial attendee list in ChatGPT suicide lawsuit

Pontos principais

  • A OpenAI solicitou à família Raine uma lista completa de participantes do memorial e mídias relacionadas.
  • O processo alega que a OpenAI apressou o lançamento do GPT-4o em maio de 2024, reduzindo os testes de segurança.
  • Em fevereiro de 2025, a OpenAI supostamente removeu a prevenção ao suicídio de sua lista de conteúdo proibido.
  • As interações diárias de Adam Raine com o ChatGPT aumentaram para cerca de 300 por dia em abril.
  • A OpenAI enfatiza o bem-estar dos adolescentes e aponta para o novo roteamento de segurança para o GPT-5 e alertas de controle parental.
  • Os advogados da família chamaram o pedido de informações do memorial de "assédio intencional".
  • A disputa legal continua enquanto ambas as partes se preparam para ações judiciais adicionais.

Em um desenvolvimento recente do processo de morte injusta movido pela família Raine, a OpenAI solicitou uma lista completa de participantes do memorial para o seu filho, Adam Raine, que morreu por suicídio após extensas conversas com o ChatGPT. O pedido, obtido pelo Financial Times, parece ser parte dos esforços da empresa para reunir evidências, pois o processo alega que a OpenAI apressou o lançamento do GPT-4o, enfraqueceu as salvaguardas de prevenção ao suicídio e permitiu um aumento nas conversas arriscadas. A OpenAI mantém que o bem-estar dos adolescentes é uma prioridade e aponta para novos recursos de segurança e controles parentais como evidência de seu compromisso.

Contexto do Processo

A família Raine moveu um processo de morte injusta contra a OpenAI após a morte de seu filho de 16 anos, Adam Raine, que morreu por suicídio após interações prolongadas com o chatbot. O processo alega que a gestão da OpenAI em relação às medidas de segurança contribuiu para a tragédia.

Alegações Sobre o Lançamento do Modelo e Testes de Segurança

A queixa afirma que a OpenAI acelerou o lançamento do GPT-4o em maio de 2024, reduzindo os testes de segurança devido à pressão competitiva. Também alega que, em fevereiro de 2025, a empresa removeu a prevenção ao suicídio de sua lista de conteúdo proibido, reduzindo-a a um aviso geral sobre "situações arriscadas".

Aumento das Interações Arriscadas

De acordo com o processo, após a mudança na política, as conversas diárias de Adam com o ChatGPT aumentaram dramaticamente, atingindo cerca de 300 por dia em abril, o mês de sua morte, com uma parcela notável contendo conteúdo de autolesão.

Pedido da OpenAI por Informações do Memorial

Em documentos obtidos pelo Financial Times, a OpenAI solicitou à família Raine uma lista completa de participantes do memorial de Adam, bem como quaisquer vídeos, fotografias ou elogios relacionados. Os advogados da família descreveram o pedido como "assédio intencional".

Resposta Pública da OpenAI

A OpenAI respondeu enfatizando que o bem-estar dos adolescentes é uma prioridade, citando salvaguardas existentes, como direcionar os usuários para linhas de ajuda, encaminhar conversas sensíveis para novos modelos, solicitar pausas durante sessões longas e aprimoramentos contínuos. A empresa destacou um novo sistema de roteamento de segurança que direciona conversas emocionalmente sensíveis para o GPT-5, que, segundo a empresa, não tem as "tendências sycophânticas" do GPT-4o, e ferramentas de controle parental que podem alertar os pais sobre possíveis situações de autolesão.

Estado Atual e Perspectivas

O processo permanece ativo, com o pedido recente por detalhes do memorial adicionando uma nova dimensão à batalha legal. Ambas as partes continuam se preparando para procedimentos adicionais, enquanto a OpenAI afirma que está fortalecendo as proteções para menores que usam seus produtos de IA.

#OpenAI#ChatGPT#família Raine#processo#suicídio de adolescente#segurança de IA#GPT-4o#GPT-5#política de conteúdo#controles parentais

Também disponível em: