Anthropic adiciona verificação de identidade ao Claude, gerando reação negativa dos usuários

Pontos principais
- A Anthropic inicia a implementação limitada da verificação de identidade para os usuários do Claude.
- A verificação exige um documento de identidade com foto emitido pelo governo e uma selfie.
- A terceirização da verificação é realizada pela Persona; seus investidores incluem o Founders Fund.
- A empresa afirma que a medida visa combater fraudes ou abusos e que os dados são criptografados e não armazenados.
- Os usuários criticam a exigência de verificação biométrica e as ligações da Persona com a vigilância governamental.
- A Anthropic não divulgou quais casos de uso acionam o prompt de verificação.
A Anthropic começou a implementar a verificação de identidade para os usuários do seu chatbot Claude, exigindo um documento de identidade com foto emitido pelo governo e uma selfie em casos limitados. A verificação é realizada pela Persona, uma empresa de terceiros cujos investidores incluem o Founders Fund de Peter Thiel. Embora a empresa afirme que a medida visa combater atividades fraudulentas ou abusivas, muitos assinantes criticam a exigência de verificação biométrica, citando preocupações com a privacidade e as ligações da empresa com firmas de vigilância governamental.
A Anthropic anunciou que está expandindo a verificação de identidade para os usuários do Claude em uma implementação limitada visando combater o abuso. Quando o sistema detecta atividades que possam violar sua política de uso, os usuários verão um prompt solicitando um documento de identidade com foto válido emitido pelo governo e uma selfie tirada com uma câmera de telefone ou computador. A imagem facial é comparada com o documento de identidade antes que o acesso à funcionalidade solicitada seja restaurado.
O processo de verificação é terceirizado para a Persona, uma provedora que também oferece serviços de verificação de idade para a OpenAI e a Roblox. Os investidores da Persona incluem o Founders Fund, cofundado por Peter Thiel, cuja outra empresa, a Palantir, fornece tecnologia de vigilância para agências federais, como o FBI, a CIA e a Immigration and Customs Enforcement.
A Anthropic apresenta a medida como uma salvaguarda contra "comportamentos potencialmente fraudulentos ou abusivos" que violam sua política. Em seu comunicado, a empresa enfatizou que todos os dados transmitidos pela Persona são criptografados em trânsito e em repouso, que a Persona está contratualmente limitada em como pode usar as imagens e que a Anthropic não armazenará os documentos de identidade ou usá-los para treinar seus modelos.
A reação da comunidade do Claude foi amplamente negativa. Assinantes de longa data, que já têm detalhes de cartão de crédito arquivados, questionam por que um documento de identidade físico agora é necessário. Críticos também destacam as ligações da Persona com a vigilância governamental, temendo que a medida expanda o rastreamento de usuários além do escopo original da plataforma.
Defensores da privacidade alertam que a tecnologia de reconhecimento facial pode ser reutilizada, apontando os contratos da Palantir com agências dos EUA como um exemplo de cautela. Alguns usuários ameaçaram abandonar o Claude em favor de chatbots concorrentes que não exigem verificações biométricas.
A Anthropic não divulgou os casos de uso específicos que acionam o prompt de verificação. Um porta-voz disse ao Engadget que a exigência se aplica apenas a "um pequeno número de casos em que vemos atividades que indicam comportamentos potencialmente fraudulentos ou abusivos".
A implementação começa esta semana e será faseada em todas as contas. Os usuários que encontrarem o prompt podem esperar um fluxo de verificação curto antes de recuperar o acesso à funcionalidade solicitada.
Este desenvolvimento adiciona ao debate mais amplo sobre práticas de coleta de dados na indústria de IA. A OpenAI, por exemplo, recentemente exigiu verificação por telefone para usuários do ChatGPT Plus, mas a medida biométrica da Anthropic é mais invasiva, provocando uma nova análise de como os serviços de IA gerativa equilibram segurança e privacidade.
Analistas da indústria sugerem que a medida pode estabelecer um precedente para verificações de identidade mais rigorosas em plataformas de IA, especialmente à medida que os reguladores examinam o mau uso de grandes modelos de linguagem. Embora a verificação biométrica possa dissuadir atores mal-intencionados, também arrisca excluir usuários legítimos que não têm acesso conveniente a documentos de identidade emitidos pelo governo.
As garantias da Anthropic sobre criptografia e uso limitado de dados visam acalmar as preocupações, mas a falta de políticas de retenção detalhadas deixa muitas perguntas sem resposta. O episódio pode moldar as discussões de política futuras na Comissão Federal de Comércio, que está começando a avaliar as práticas de manipulação de dados das empresas de IA.