Anthropic adiciona verificação de identidade ao Claude, gerando reação negativa dos usuários

Anthropic adds identity verification to Claude, sparking user backlash

Pontos principais

  • A Anthropic inicia a implementação limitada da verificação de identidade para os usuários do Claude.
  • A verificação exige um documento de identidade com foto emitido pelo governo e uma selfie.
  • A terceirização da verificação é realizada pela Persona; seus investidores incluem o Founders Fund.
  • A empresa afirma que a medida visa combater fraudes ou abusos e que os dados são criptografados e não armazenados.
  • Os usuários criticam a exigência de verificação biométrica e as ligações da Persona com a vigilância governamental.
  • A Anthropic não divulgou quais casos de uso acionam o prompt de verificação.

A Anthropic começou a implementar a verificação de identidade para os usuários do seu chatbot Claude, exigindo um documento de identidade com foto emitido pelo governo e uma selfie em casos limitados. A verificação é realizada pela Persona, uma empresa de terceiros cujos investidores incluem o Founders Fund de Peter Thiel. Embora a empresa afirme que a medida visa combater atividades fraudulentas ou abusivas, muitos assinantes criticam a exigência de verificação biométrica, citando preocupações com a privacidade e as ligações da empresa com firmas de vigilância governamental.

A Anthropic anunciou que está expandindo a verificação de identidade para os usuários do Claude em uma implementação limitada visando combater o abuso. Quando o sistema detecta atividades que possam violar sua política de uso, os usuários verão um prompt solicitando um documento de identidade com foto válido emitido pelo governo e uma selfie tirada com uma câmera de telefone ou computador. A imagem facial é comparada com o documento de identidade antes que o acesso à funcionalidade solicitada seja restaurado.

O processo de verificação é terceirizado para a Persona, uma provedora que também oferece serviços de verificação de idade para a OpenAI e a Roblox. Os investidores da Persona incluem o Founders Fund, cofundado por Peter Thiel, cuja outra empresa, a Palantir, fornece tecnologia de vigilância para agências federais, como o FBI, a CIA e a Immigration and Customs Enforcement.

A Anthropic apresenta a medida como uma salvaguarda contra "comportamentos potencialmente fraudulentos ou abusivos" que violam sua política. Em seu comunicado, a empresa enfatizou que todos os dados transmitidos pela Persona são criptografados em trânsito e em repouso, que a Persona está contratualmente limitada em como pode usar as imagens e que a Anthropic não armazenará os documentos de identidade ou usá-los para treinar seus modelos.

A reação da comunidade do Claude foi amplamente negativa. Assinantes de longa data, que já têm detalhes de cartão de crédito arquivados, questionam por que um documento de identidade físico agora é necessário. Críticos também destacam as ligações da Persona com a vigilância governamental, temendo que a medida expanda o rastreamento de usuários além do escopo original da plataforma.

Defensores da privacidade alertam que a tecnologia de reconhecimento facial pode ser reutilizada, apontando os contratos da Palantir com agências dos EUA como um exemplo de cautela. Alguns usuários ameaçaram abandonar o Claude em favor de chatbots concorrentes que não exigem verificações biométricas.

A Anthropic não divulgou os casos de uso específicos que acionam o prompt de verificação. Um porta-voz disse ao Engadget que a exigência se aplica apenas a "um pequeno número de casos em que vemos atividades que indicam comportamentos potencialmente fraudulentos ou abusivos".

A implementação começa esta semana e será faseada em todas as contas. Os usuários que encontrarem o prompt podem esperar um fluxo de verificação curto antes de recuperar o acesso à funcionalidade solicitada.

Este desenvolvimento adiciona ao debate mais amplo sobre práticas de coleta de dados na indústria de IA. A OpenAI, por exemplo, recentemente exigiu verificação por telefone para usuários do ChatGPT Plus, mas a medida biométrica da Anthropic é mais invasiva, provocando uma nova análise de como os serviços de IA gerativa equilibram segurança e privacidade.

Analistas da indústria sugerem que a medida pode estabelecer um precedente para verificações de identidade mais rigorosas em plataformas de IA, especialmente à medida que os reguladores examinam o mau uso de grandes modelos de linguagem. Embora a verificação biométrica possa dissuadir atores mal-intencionados, também arrisca excluir usuários legítimos que não têm acesso conveniente a documentos de identidade emitidos pelo governo.

As garantias da Anthropic sobre criptografia e uso limitado de dados visam acalmar as preocupações, mas a falta de políticas de retenção detalhadas deixa muitas perguntas sem resposta. O episódio pode moldar as discussões de política futuras na Comissão Federal de Comércio, que está começando a avaliar as práticas de manipulação de dados das empresas de IA.

#Anthropic#Claude#chatbot de IA#verificação de identidade#Persona#Founders Fund#Peter Thiel#Palantir#privacidade de dados#reconhecimento facial#ética de IA#reação negativa dos usuários#segurança de IA#IA gerativa#vigilância

Também disponível em: