Anthropic agrega verificación de identidad a Claude, lo que genera rechazo de los usuarios

Puntos clave
- Anthropic comienza la implementación limitada de la verificación de identidad para los usuarios de Claude.
- La verificación requiere un documento de identificación emitido por el gobierno y una selfie.
- La empresa de terceros Persona realiza la verificación del documento de identificación; sus inversionistas incluyen al Founders Fund.
- La empresa afirma que la medida tiene como objetivo prevenir el fraude o el abuso y que los datos están cifrados y no se almacenan.
- Los usuarios critican el requisito biométrico y los vínculos de Persona con la vigilancia gubernamental.
- Anthropic no ha revelado los casos de uso específicos que activan el mensaje de verificación.
Anthropic ha comenzado a implementar la verificación de identidad para los usuarios de su chatbot Claude, requiriendo un documento de identificación emitido por el gobierno y una selfie en casos limitados. La verificación es realizada por la empresa de terceros Persona, cuyos inversionistas incluyen al Founders Fund de Peter Thiel. Aunque la empresa afirma que la medida tiene como objetivo prevenir actividades fraudulentas o abusivas, muchos suscriptores se oponen al control biométrico adicional, citando preocupaciones sobre la privacidad y los vínculos del servicio con empresas de vigilancia gubernamental. Anthropic mantiene que los datos serán cifrados, no almacenados y nunca se utilizarán para entrenar sus modelos.
Anthropic anunció que está extendiendo la verificación de identidad a los usuarios de Claude en una implementación limitada destinada a prevenir el abuso. Cuando el sistema detecta actividad que puede violar su política de uso, los usuarios verán un mensaje que solicita un documento de identificación válido emitido por el gobierno y una selfie tomada con una cámara de teléfono o computadora. La imagen facial se compara con el documento de identificación antes de restaurar el acceso a la función solicitada.
El proceso de verificación es realizado por Persona, un proveedor que también ofrece servicios de verificación de edad para OpenAI y Roblox. Los inversionistas de Persona incluyen al Founders Fund, cofundado por Peter Thiel, cuya otra empresa Palantir suministra tecnología de vigilancia a agencias federales como el FBI, la CIA y la Oficina de Aduanas y Protección Fronteriza.
Anthropic presenta la medida como una salvaguarda contra el "comportamiento potencialmente fraudulento o abusivo" que viola su política. En su declaración, la empresa enfatizó que todos los datos transmitidos a través de Persona están cifrados en tránsito y en reposo, que Persona está limitada contractualmente en cómo puede utilizar las imágenes y que Anthropic no almacenará los documentos de identificación ni los utilizará para entrenar sus modelos.
La reacción de la comunidad de Claude ha sido en gran medida negativa. Los suscriptores de larga data, que ya tienen detalles de tarjeta de crédito en archivo, cuestionan por qué ahora se requiere un documento de identificación físico. Los críticos también resaltan los vínculos de Persona con la vigilancia gubernamental, temiendo que el movimiento amplíe el seguimiento de los usuarios más allá del alcance original de la plataforma.
Los defensores de la privacidad advierten que la tecnología de reconocimiento facial puede ser reutilizada, señalando los contratos de Palantir con agencias de los Estados Unidos como un ejemplo de precaución. Algunos usuarios han amenazado con abandonar Claude en favor de chatbots competidores que no exigen controles biométricos.
Anthropic no ha revelado los casos de uso específicos que activan el mensaje de verificación. Un portavoz le dijo a Engadget que el requisito solo se aplica a un "pequeño número de casos en los que vemos actividad que indica un comportamiento potencialmente fraudulento o abusivo".
La implementación comienza esta semana y se realizará de forma gradual en todas las cuentas. Los usuarios que encuentren el mensaje pueden esperar un flujo de verificación breve antes de recuperar el acceso a la función solicitada.
Este desarrollo agrega a un debate más amplio sobre las prácticas de recopilación de datos en la industria de la IA. OpenAI, por ejemplo, recientemente requirió la verificación de teléfono para los usuarios de ChatGPT Plus, pero el paso biométrico de Anthropic es más invasivo, lo que genera una nueva escrutinio de cómo los servicios de IA generativa equilibran la seguridad con la privacidad.
Los analistas de la industria sugieren que el movimiento podría sentar un precedente para controles de identidad más estrictos en las plataformas de IA, especialmente a medida que los reguladores examinan el mal uso de los grandes modelos de lenguaje. Si bien la verificación biométrica puede disuadir a los actores maliciosos, también riesgos excluyendo a los usuarios legítimos que carecen de acceso conveniente a documentos de identificación emitidos por el gobierno.
Las garantías de Anthropic sobre el cifrado y el uso limitado de los datos apuntan a calmar las preocupaciones, pero la falta de políticas de retención detalladas deja muchas preguntas sin respuesta. El episodio puede dar forma a las discusiones de política futuras en la Comisión Federal de Comercio, que está comenzando a evaluar las prácticas de manejo de datos de las empresas de IA.