OpenAI agrega función de Contacto de Confianza a ChatGPT para usuarios adultos

OpenAI agrega función de Contacto de Confianza a ChatGPT para usuarios adultos

Puntos clave

  • OpenAI introduce Contacto de Confianza para usuarios adultos de ChatGPT.
  • Los usuarios pueden nombrar a una persona mayor de 18 años (19 en Corea del Sur) para recibir alertas.
  • La alerta se activa solo después de que un revisor humano confirme un riesgo grave.
  • La notificación no contiene la transcripción de la charla, solo una breve advertencia.
  • La función complementa las alertas de seguridad existentes para cuentas de adolescentes.
  • Desarrollado con la participación de clínicos y grupos de salud mental.
  • Los usuarios y contactos pueden agregar, cambiar o eliminar el Contacto de Confianza en cualquier momento.
  • OpenAI tiene como objetivo completar la revisión humana dentro de una hora.

OpenAI está implementando una nueva opción de Contacto de Confianza para cuentas de ChatGPT de adultos. La función permite a los usuarios nombrar a una persona designada que será alertada si la IA detecta una preocupación grave de autolesión. Después de una breve revisión humana, el contacto recibe una notificación sin detalles de la transcripción de la charla. OpenAI afirma que la salvaguarda tiene como objetivo complementar las herramientas de seguridad y recursos de crisis existentes, mientras que da a los usuarios más control sobre su bienestar digital.

OpenAI comenzó a ofrecer una opción de Contacto de Confianza a usuarios adultos de ChatGPT esta semana, extendiendo la caja de herramientas de seguridad que ya cubre las cuentas de adolescentes. La función aparece en la configuración de la aplicación y permite a un usuario nominar a una sola persona - al menos 18 años de edad (19 en Corea del Sur) - que será notificada si el chatbot señala una conversación como potencialmente indicativa de autolesión.

Configurar el contacto es opcional. Una vez que un usuario selecciona a un nominado, la aplicación envía al contacto una invitación que explica el papel y ofrece una ventana de una semana para aceptar. Si la invitación es rechazada, el usuario puede elegir a alguien más. El proceso no comparte ninguna parte de la conversación; la alerta simplemente establece que se mencionó la autolesión de una manera preocupante y pide al contacto que verifique.

Cuando los algoritmos de ChatGPT detectan lenguaje que puede señalar un riesgo grave, el sistema primero informa al usuario de que un Contacto de Confianza podría ser notificado. También sugiere iniciadores de conversación para ayudar al usuario a comunicarse directamente. Un pequeño equipo de revisores humanos especialmente capacitados evalúa entonces la situación. Si confirman una amenaza genuina, el contacto recibe una notificación a través de correo electrónico, mensaje de texto o una alerta en la aplicación. OpenAI tiene como objetivo completar esta revisión humana dentro de una hora.

La función de Contacto de Confianza se basa en los esfuerzos de seguridad más amplios de OpenAI, que incluyen alertas para cuentas de adolescentes vinculadas cuando aparecen signos de angustia. El desarrollo involucró a clínicos, investigadores y organizaciones de salud mental como la Asociación Estadounidense de Psicología. OpenAI enfatiza que la nueva herramienta no reemplaza las líneas de ayuda de crisis, los servicios de emergencia o la atención profesional; el chatbot continúa dirigiendo a los usuarios a esos recursos cuando es necesario.

Los usuarios retienen el control total sobre la función. Pueden eliminar o reemplazar su Contacto de Confianza en cualquier momento, y los contactos pueden optar por salir ellos mismos. Al dar a los usuarios una forma de involucrar a una persona de confianza, OpenAI espera mitigar los límites de la conversación impulsada por IA al tratar con cuestiones profundamente personales.

Los observadores de la industria señalan que la adición refleja una tendencia creciente entre los proveedores de IA para incorporar salvaguardas de humano en el bucle. A medida que los chatbots de IA se vuelven más arraigados en la vida diaria, las plataformas están bajo presión para abordar los posibles daños sin comprometer la privacidad del usuario. El enfoque de OpenAI - que combina la detección algorítmica, la revisión humana rápida y el intercambio mínimo de datos - ofrece un modelo que equilibra la seguridad con la confidencialidad.

#OpenAI#ChatGPT#Contacto de Confianza#salud mental#seguridad de IA#prevención de autolesión#bienestar digital#chatbot de IA#seguridad del usuario#revisión humana

También disponible en: