Anthropic Expande Uso de Dados de Conversa do Claude, Oferece Opção de Desativar

Anthropic Will Use Claude Chats for Training Data. Here’s How to Opt Out

Pontos principais

  • A Anthropic usará logs de chat e sessões de codificação do Claude para treinar futuros modelos, a menos que os usuários optem por não participar.
  • O toggle de desativar está ativado por padrão para novos usuários e pode ser alterado nas Configurações de Privacidade para usuários existentes.
  • A retenção de dados é estendida de 30 dias para até cinco anos.
  • Contas de nível comercial estão isentas da nova política de treinamento.
  • Conversas arquivadas reabertas se tornam elegíveis para treinamento se o usuário não optou por não participar.
  • A política alinha as práticas de dados da Anthropic com os padrões da indústria estabelecidos pela OpenAI e pelo Google.

A Anthropic anunciou que começará a usar conversas e sessões de codificação de seu chatbot Claude para treinar futuros modelos de linguagem grande, a menos que os usuários optem por não participar. A mudança na política, detalhada em um aviso de privacidade atualizado, também estende a retenção de dados de trinta dias para cinco anos.

Fundo

O chatbot Claude da Anthropic historicamente foi um dos poucos assistentes de IA principais que não usavam interações de usuários como dados de treinamento para seus modelos de linguagem grande. A política de privacidade da empresa agora foi revista para permitir a reutilização de logs de chat e tarefas de codificação para melhoria de modelo, alinhando sua abordagem com as normas da indústria.

Mudança na Política

O aviso de privacidade atualizado afirma que, a partir da data efetiva, todas as novas e revisadas conversas — a menos que o usuário opte por não participar — podem ser incorporadas ao pipeline de treinamento da Anthropic. A mudança também alonga o período de retenção de dados, mudando de um período típico de trinta dias para um máximo de cinco anos para dados de usuário armazenados. Essa política se aplica a contas pessoais gratuitas e pagas, enquanto usuários de nível comercial, incluindo licenças governamentais e educacionais, são explicitamente excluídos.

Processo de Desativar

Durante o fluxo de inscrição para novos usuários do Claude, uma escolha clara é apresentada: um toggle rotulado "Permitir o uso de suas conversas e sessões de codificação para treinar e melhorar os modelos de IA da Anthropic". O toggle está ativado por padrão, o que significa que os usuários que não desativam explicitamente estão optando por participar. Usuários existentes que já encontraram um pop-up de privacidade podem ajustar sua preferência a qualquer momento via o menu Configurações de Privacidade. A configuração relevante, intitulada "Ajude a melhorar o Claude", pode ser desligada para evitar que quaisquer dados de conversa futuros sejam usados para treinamento.

Implicações para os Usuários

Para os usuários que optam por não participar, a Anthropic não usará suas novas conversas ou trabalhos de codificação para treinamento de modelo. No entanto, se um usuário mais tarde reabre uma conversa arquivada, essa interação se torna elegível para inclusão, a menos que a opção de desativar permaneça ativa. A janela de retenção expandida significa que os dados armazenados — independentemente de estarem optados por participar ou não — serão mantidos por um período mais longo, potencialmente de até cinco anos.

Contexto da Indústria

A nova política da Anthropic traz suas práticas de dados em linha com as de outros principais provedores de IA, como o ChatGPT da OpenAI e o Gemini do Google, que também permitem o treinamento de modelo por padrão e exigem que os usuários optem por não participar se desejam restringi-lo. Ao oferecer um mecanismo de desativar direto, a Anthropic visa equilibrar a necessidade de dados de interação do mundo real para melhorar o Claude com as preocupações de privacidade do usuário.

#Anthropic#Claude#Treinamento de IA#Privacidade de dados#Desativar#Modelos de linguagem grande#Chatbot#Política de privacidade#Conjunto de dados de usuário#Uso de dados

Também disponível em:

Anthropic Expande Uso de Dados de Conversa do Claude, Oferece Opção de Desativar | AI News