Anthropic Amplía el Uso de Datos de Conversaciones de Claude, Ofrece Opción de Exclusión

Anthropic Will Use Claude Chats for Training Data. Here’s How to Opt Out

Puntos clave

  • Anthropic utilizará registros de chat y sesiones de codificación de Claude para entrenar futuros modelos a menos que los usuarios opten por excluirse.
  • El interruptor de exclusión está activado por defecto para nuevos usuarios y se puede cambiar en Configuración de privacidad para usuarios existentes.
  • La retención de datos se extiende de 30 días a hasta cinco años.
  • Las cuentas de nivel comercial están exentas de la nueva política de entrenamiento.
  • Los chats archivados reabiertos se vuelven elegibles para el entrenamiento si el usuario no ha optado por excluirse.
  • La política alinea las prácticas de datos de Anthropic con los estándares de la industria establecidos por OpenAI y Google.

Anthropic anunció que comenzará a utilizar conversaciones y sesiones de codificación de su chatbot Claude para entrenar futuros modelos de lenguaje grande, a menos que los usuarios opten por excluirse activamente. El cambio de política, detallado en un aviso de privacidad actualizado, también extiende la retención de datos de treinta días a cinco años.

Antecedentes

El chatbot Claude de Anthropic históricamente ha sido uno de los pocos asistentes de inteligencia artificial importantes que no utilizaba interacciones de usuarios como datos de entrenamiento para sus modelos de lenguaje grande. La política de privacidad de la empresa ahora ha sido revisada para permitir la reutilización de registros de chat y tareas de codificación para mejorar los modelos, alineando su enfoque con las normas de la industria.

Cambio de Política

El aviso de privacidad actualizado establece que, a partir de la fecha efectiva, todos los chats nuevos y revisados —a menos que el usuario opte por excluirse— pueden ser incorporados en la canalización de entrenamiento de Anthropic. El cambio también alarga el período de retención de datos, pasando de un plazo típico de treinta días a un máximo de cinco años para los datos de usuario almacenados. Esta política se aplica a cuentas personales gratuitas y de pago, mientras que los usuarios de nivel comercial, incluyendo licencias gubernamentales y educativas, están explícitamente excluidos.

Proceso de Exclusión

During el flujo de registro para nuevos usuarios de Claude, se presenta una elección clara: un interruptor etiquetado como "Permitir el uso de sus chats y sesiones de codificación para entrenar y mejorar los modelos de inteligencia artificial de Anthropic". El interruptor está activado por defecto, lo que significa que los usuarios que no lo desactivan activamente están incluidos. Los usuarios existentes que ya han encontrado un pop-up de privacidad pueden ajustar su preferencia en cualquier momento a través del! menú de Configuración de privacidad. La configuración relevante, titulada "Ayudar a mejorar a Claude", se puede desactivar para evitar que se utilicen futuros datos de chat para el entrenamiento.

Implicaciones para los Usuarios

Para los usuarios que optan por excluirse, Anthropic no utilizará sus conversaciones o trabajos de codificación nuevos para el entrenamiento de modelos. Sin embargo, si un usuario vuelve a abrir un chat archivado, esa interacción se vuelve elegible para ser incluida a menos que la exclusión permanezca activa. La ventana de retención extendida significa que los datos almacenados —independientemente de si se opta por incluir o no— se mantendrán durante un período más largo, potencialmente de hasta cinco años.

Contexto de la Industria

La nueva política de Anthropic lleva sus prácticas de datos a la par con las de otros proveedores de inteligencia artificial líderes, como ChatGPT de OpenAI y Gemini de Google, que también permiten el entrenamiento de modelos por defecto y requieren que los usuarios opten por excluirse si desean restringirlo. Al ofrecer un mecanismo de exclusión sencillo, Anthropic busca equilibrar la necesidad de datos de interacción del mundo real para mejorar a Claude con las preocupaciones de privacidad de los usuarios.

#Anthropic#Claude#Entrenamiento de IA#Privacidad de datos#Exclusión#Modelos de lenguaje grande#Chatbot#Política de privacidad#Datos de usuario#Uso de datos

También disponible en:

Anthropic Amplía el Uso de Datos de Conversaciones de Claude, Ofrece Opción de Exclusión | AI News