OpenAI defiende el nuevo enrutamiento de seguridad mientras los usuarios critican el cambio de modelo

OpenAI responds to furious ChatGPT subscribers who accuse it of secretly switching to inferior models

Puntos clave

  • OpenAI agregó un sistema de enrutamiento de seguridad que redirige conversaciones sensibles a un modelo de IA conservador.
  • El enrutamiento se activa en una base por mensaje y es temporal.
  • Los usuarios que pagan informan frustración, diciendo que no pueden permanecer en su modelo elegido.
  • Actualmente no hay una opción para que los usuarios deshabiliten el enrutamiento de seguridad.
  • El ejecutivo de OpenAI, Nick Turley, explicó que la función está destinada a proteger a los usuarios que muestran signos de angustia emocional.
  • La empresa cita una responsabilidad para salvaguardar a los usuarios vulnerables, incluidas las audiencias más jóvenes.
  • Los críticos comparan el cambio con controles parentales bloqueados, argumentando que limita la libertad del usuario.

OpenAI introdujo un sistema de enrutamiento de seguridad que redirige automáticamente las conversaciones de ChatGPT a un modelo de IA más conservador cuando se detectan temas sensibles o emocionales. Los usuarios que pagan han expresado una fuerte frustración, diciendo que el cambio los obliga a abandonar sus modelos preferidos sin una forma de optar por no participar. El ejecutivo de OpenAI, Nick Turley, explicó que el enrutamiento opera en una base por mensaje para apoyar mejor a los usuarios que muestran signos de angustia mental o emocional.

Antecedentes del cambio

OpenAI recientemente implementó nuevas barreras de seguridad para ChatGPT. El sistema monitorea cada mensaje en busca de signos de sensibilidad, contenido emocional o posibles preocupaciones legales. Cuando se detectan dichas señales, la conversación se redirige silenciosamente a un modelo de IA más conservador. Este enrutamiento tiene la intención de ser temporal y se aplica en una base por mensaje.

Reacción de los usuarios

Muchos suscriptores que pagan han expresado su ira en plataformas sociales, afirmando que el cambio los obliga a abandonar el modelo que seleccionaron, como GPT-4o. Los usuarios señalan que actualmente no hay una opción para deshabilitar el enrutamiento, y los cambios ocurren sin una indicación clara. Algunos describen la experiencia como "estar obligado a ver televisión con los controles parentales bloqueados", incluso cuando no hay niños presentes.

Respuesta de OpenAI

El ejecutivo de OpenAI, Nick Turley, abordó las preocupaciones públicamente, afirmando que el enrutamiento de seguridad está diseñado específicamente para "temas sensibles y emocionales". Él enfatizó que la función es parte de un esfuerzo más amplio para mejorar cómo ChatGPT maneja los signos de angustia mental y emocional, alineándose con publicaciones de blog anteriores sobre la seguridad del usuario. Turley describió el sistema como una medida temporal que se activa solo cuando es necesario.

Razón detrás de la función

La empresa argumenta que tiene la responsabilidad de proteger a los usuarios vulnerables, incluidos aquellos que pueden estar experimentando angustia. Al redirigir a un modelo más cauto, OpenAI busca proporcionar respuestas que son menos propensas a exacerbar situaciones sensibles. Este enfoque tiene la intención de equilibrar las capacidades de chatbot de fin abierto con salvaguardias para el bienestar del usuario.

Debate en curso

La controversia destaca una tensión entre la autonomía del usuario y la seguridad de la plataforma. Mientras que algunos usuarios acogen con beneplácito protecciones más fuertes, muchos sienten que la falta de transparencia y control socava su flujo de trabajo. Se espera que la discusión continúe mientras OpenAI evalúa los comentarios y potencialmente refina el mecanismo de enrutamiento.

#OpenAI#ChatGPT#Nick Turley#cambio de modelo#enrutamiento de seguridad#ética de IA#reacción de los usuarios#GPT-4o#salud mental#modelo de IA

También disponible en:

OpenAI defiende el nuevo enrutamiento de seguridad mientras los usuarios critican el cambio de modelo | AI News