Anthropic Expande Uso de Dados do Claude e Oferece Opção de Desvinculação para Usuários

Pontos principais
- A Anthropic começará a usar novas conversas do Claude e tarefas de codificação como dados de treinamento para seus modelos de IA.
- A atualização da política entra em vigor em 8 de outubro, após um atraso em relação à data originalmente planejada de 28 de setembro.
- Um toggle padrão "Ajude a melhorar o Claude" está habilitado; os usuários devem desativá-lo nas Configurações de Privacidade para optar por não participar.
- A opção de desvinculação se aplica a todas as novas conversas e conversas reabertas, a menos que os usuários reativem threads antigas.
- A retenção de dados é extendida de 30 dias para cinco anos para todos os usuários, independentemente do status de opt-in para treinamento.
- Usuários de nível comercial licenciados por meio de planos governamentais ou educacionais estão isentos do uso de dados para treinamento.
- Os recursos de assistência de codificação do Claude significam que projetos de codificação também são incluídos no conjunto de dados de treinamento para usuários que optaram por participar.
- Antes dessa mudança, o Claude era único entre os principais chatbots por não usar automaticamente as conversas dos usuários para treinamento de modelos.
A Anthropic anunciou que começará a usar novas interações de chat do Claude e tarefas de codificação como dados de treinamento para seus grandes modelos de linguagem. A mudança segue uma atualização da política de privacidade da empresa, programada para 8 de outubro, que incluirá automaticamente os dados dos usuários, a menos que eles optem explicitamente por não participar. Os usuários podem controlar a configuração por meio de um toggle "Ajude a melhorar o Claude" nas Configurações de Privacidade.
Mudança de Política e Racional
A Anthropic está preparando para incorporar conversas de usuários com seu chatbot Claude, bem como tarefas de codificação realizadas dentro da ferramenta, nos dados de treinamento para futuros grandes modelos de linguagem. A empresa explicou que os grandes modelos de linguagem requerem conjuntos de dados extensos e que as interações do mundo real fornecem insights valiosos sobre quais respostas são mais úteis e precisas para os usuários. Isso representa uma mudança em relação à posição anterior da Anthropic, onde as conversas dos usuários não eram automaticamente usadas para treinamento de modelos.
Cronograma de Implementação
A política de privacidade atualizada está programada para entrar em vigor em 8 de outubro. A mudança foi originalmente programada para 28 de setembro, mas foi adiada para dar aos usuários mais tempo para revisar os novos termos. Gabby Curtis, uma porta-voz da Anthropic, indicou que o atraso foi feito para garantir uma transição técnica suave.
Mecanismo de Desvinculação
Novos usuários do Claude encontrarão um prompt de decisão durante o processo de inscrição, enquanto os usuários existentes podem ver uma janela pop-up que descreve as mudanças. A configuração padrão, rotulada como "Ajude a melhorar o Claude", está ativada, o que significa que os usuários estão optados por participar, a menos que eles ativamente desativem o toggle. Para optar por não participar, os usuários devem navegar até as Configurações de Privacidade e desativar o toggle. Se os usuários não optarem por não participar, a política se aplica a todas as novas conversas e a qualquer conversa reaberta, mas não se aplica automaticamente a threads arquivadas mais antigas, a menos que essas threads sejam reativadas.
Extensão do Período de Retenção de Dados
Além da mudança nos dados de treinamento, a Anthropic está extendendo seu período de retenção de dados. Anteriormente, a maioria dos dados dos usuários era retida por 30 dias; sob a nova política, os dados serão armazenados por até cinco anos, independentemente de o usuário ter optado por participar do treinamento de modelos ou não.
Escopo de Usuários Afetados
A política abrange tanto usuários gratuitos quanto usuários pagantes de nível comercial do Claude. No entanto, usuários comerciais que são licenciados por meio de planos governamentais ou educacionais estão isentos; suas conversas não serão usadas para treinamento de modelos. A popularidade do Claude como assistente de codificação significa que projetos de codificação enviados por meio da plataforma também serão incluídos no conjunto de dados de treinamento para usuários que não optaram por não participar.
Contexto da Indústria
Antes dessa atualização, o Claude era um dos poucos chatbots principais que não usava automaticamente as conversas dos usuários para treinamento. Em contraste, o ChatGPT da OpenAI e o Gemini do Google usam o treinamento de modelos em contas pessoais, a menos que os usuários escolham optar por não participar. A mudança coloca a Anthropic em linha com as práticas da indústria em relação ao uso de dados para melhoria de modelos de IA.
O que os Usuários Podem Fazer
Os usuários que desejam manter suas interações com o Claude privadas devem localizar o toggle "Ajude a melhorar o Claude" nas Configurações de Privacidade e desativá-lo. Aqueles interessados em considerações de privacidade mais amplas podem consultar guias que descrevem procedimentos de desvinculação para vários serviços de IA.