Anthropic Amplía el Uso de Datos de Claude y Ofrece Opción de Renuncia para los Usuarios

Anthropic Will Use Claude Chats for Training Data. Here’s How to Opt Out

Puntos clave

  • Anthropic comenzará a utilizar nuevas conversaciones de chat de Claude y tareas de codificación como datos de entrenamiento para sus modelos de IA.
  • La actualización de la política entra en vigor el 8 de octubre, después de un retraso desde la fecha originalmente planeada del 28 de septiembre.
  • Un interruptor predeterminado "Ayuda a mejorar Claude" está habilitado; los usuarios deben desactivarlo en la configuración de privacidad para renunciar.
  • La renuncia se aplica a todas las conversaciones nuevas y reabiertas a menos que los usuarios reactiven threads antiguos.
  • La retención de datos se extiende de 30 días a cinco años para todos los usuarios, independientemente del estado de opt-in para el entrenamiento.
  • Los usuarios de nivel comercial licenciados a través de programas gubernamentales o educativos están exentos del uso de datos para el entrenamiento.
  • Las características de asistencia de codificación de Claude significan que los proyectos de codificación también se incluyen en el conjunto de datos de entrenamiento para los usuarios que han optado por participar.
  • Antes de este cambio, Claude era único entre los chatbots principales por no utilizar automáticamente las conversaciones de los usuarios para el entrenamiento de modelos.

Anthropic anunció que comenzará a utilizar nuevas interacciones de chat de Claude y tareas de codificación como datos de entrenamiento para sus grandes modelos de lenguaje. El cambio sigue a una actualización de la política de privacidad de la empresa programada para el 8 de octubre, que incluirá automáticamente los datos de los usuarios a menos que los individuos opten por renunciar explícitamente.

Cambio de Política y Razonamiento

Anthropic se prepara para incorporar las conversaciones de los usuarios con su chatbot Claude, así como las tareas de codificación realizadas dentro de la herramienta, en los datos de entrenamiento para futuros grandes modelos de lenguaje. La empresa explicó que los grandes modelos de lenguaje requieren conjuntos de datos extensos, y las interacciones del mundo real proporcionan valiosas perspectivas sobre qué respuestas son más útiles y precisas para los usuarios. Esto representa un alejamiento de la postura anterior de Anthropic, donde las conversaciones de los usuarios no se utilizaban automáticamente para el entrenamiento de modelos.

Cronograma de Implementación

La política de privacidad actualizada está programada para entrar en vigor el 8 de octubre. El cambio estaba originalmente programado para el 28 de septiembre, pero se pospuso para dar a los usuarios tiempo adicional para revisar los nuevos términos. Gabby Curtis, portavoz de Anthropic, indicó que el retraso se debió a garantizar una transición técnica fluida.

Mecanismo de Renuncia

Los nuevos usuarios de Claude se encontrarán con un mensaje de decisión durante el proceso de registro, mientras que los usuarios existentes pueden ver una ventana emergente que describe los cambios. La configuración predeterminada, etiquetada como "Ayuda a mejorar Claude", está activada, lo que significa que los usuarios están incluidos a menos que activamente desactiven el interruptor. Para renunciar, los usuarios deben navegar a la configuración de privacidad y desactivar el interruptor. Si los usuarios no renuncian, la política se aplica a todas las conversaciones nuevas y a cualquier conversación reabierta, pero no se aplica automáticamente de forma retroactiva a threads archivados antiguos a menos que esos threads se reactiven.

Extensión del Periodo de Retención de Datos

Junta con el cambio de datos de entrenamiento, Anthropic está extendiendo su período de retención de datos. Anteriormente, la mayoría de los datos de los usuarios se retendrían durante 30 días; bajo la nueva política, los datos se almacenarán durante un máximo de cinco años, independientemente de si el usuario ha optado por el entrenamiento de modelos.

Alcance de los Usuarios Afectados

La política cubre tanto a usuarios gratuitos como a usuarios de nivel comercial de Claude. Sin embargo, los usuarios comerciales que están licenciados a través de planes gubernamentales o educativos están exentos; sus conversaciones no se utilizarán para el entrenamiento de modelos. La popularidad de Claude como asistente de codificación significa que los proyectos de codificación presentados a través de la plataforma también se incluirán en el conjunto de datos de entrenamiento para los usuarios que no han renunciado.

Contexto de la Industria

Antes de esta actualización, Claude era uno de los pocos chatbots principales que no utilizaba automáticamente las conversaciones de los usuarios para el entrenamiento. En contraste, ChatGPT de OpenAI y Gemini de Google utilizan de forma predeterminada el entrenamiento de modelos en cuentas personales a menos que los usuarios elijan renunciar. El cambio coloca a Anthropic en línea con las prácticas de la industria respecto al uso de datos para la mejora de los modelos de IA.

Qué Pueden Hacer los Usuarios

Los usuarios que deseen mantener sus interacciones con Claude privadas deben localizar el interruptor "Ayuda a mejorar Claude" en la configuración de privacidad y desactivarlo. Aquellos interesados en consideraciones de privacidad más amplias pueden consultar guías que describen los procedimientos de renuncia para varios servicios de IA.

#Anthropic#Claude#Inteligencia Artificial#Política de Privacidad#Entrenamiento de Datos#Renuncia#Modelos de Lenguaje Grande#Asistente de Codificación#Retención de Datos#Usuarios Comerciales

También disponible en:

Anthropic Amplía el Uso de Datos de Claude y Ofrece Opción de Renuncia para los Usuarios | AI News