OpenAI lanza la función de Contacto de Confianza para alertar a adultos designados cuando los usuarios de ChatGPT muestran riesgo de autolesión

OpenAI launches Trusted Contact feature to alert designated adults when ChatGPT users show self‑harm risk

Puntos clave

  • OpenAI introduce el Contacto de Confianza, que permite a los usuarios nombrar a un adulto de confianza para alertas de seguridad.
  • La IA marca lenguaje de autolesión; los usuarios son advertidos antes de que se notifique a cualquier contacto.
  • Un equipo de revisión humana evalúa los casos marcados; las alertas se envían sin transcripciones de chat.
  • La función se construyó con la guía de profesionales de la salud mental y una red de más de 260 médicos.
  • Los usuarios pueden agregar, cambiar o eliminar un Contacto de Confianza en cualquier momento.
  • Algunos ven la herramienta como una red de seguridad; otros se preocupan por el monitoreo de IA y el estigma.

OpenAI ha comenzado a implementar una nueva herramienta de Contacto de Confianza para ChatGPT que permite a los usuarios nombrar a un adulto de confianza que puede ser notificado si la IA detecta signos de autolesión. El sistema marca conversaciones de riesgo, advierte al usuario y luego pasa el caso a un equipo de revisión humana antes de que se envíe cualquier alerta. Las notificaciones se entregan por correo electrónico, mensaje de texto o mensaje en la aplicación sin compartir transcripciones de chat.

OpenAI está expandiendo su kit de herramientas de seguridad para ChatGPT con una función llamada Contacto de Confianza, ahora en lanzamiento limitado. Los usuarios pueden seleccionar su perfil, elegir a un adulto de confianza y esperar a que esa persona acepte el rol. Una vez activo, el sistema monitorea las conversaciones en busca de lenguaje que sugiera un riesgo grave de autolesión. Si la IA marca dicho contenido, el usuario recibe una advertencia de que el contacto designado puede ser alertado.

Un equipo de revisión humana especialmente capacitado evalúa la situación. Solo cuando los revisores consideran que el riesgo es genuino, el Contacto de Confianza recibe una notificación por correo electrónico, mensaje de texto o alerta en la aplicación, instándolos a verificar con el usuario. OpenAI afirma que las alertas no incluyen transcripciones de chat ni historial de conversación detallado, preservando la privacidad del usuario. Los usuarios retienen el control total: pueden eliminar o reemplazar su Contacto de Confianza en cualquier momento.

La función se construyó con la guía de profesionales de la salud mental, especialistas en prevención del suicidio y una red global de más de 260 médicos de 60 países. OpenAI posiciona el Contacto de Confianza como una extensión de sus controles parentales y salvaguardias de seguridad existentes, reconociendo que ChatGPT ahora funciona para muchos como más que una herramienta de productividad: puede actuar como un confidente, coach de vida o incluso un terapeuta.

El CEO de OpenAI, Sam Altman, ha comentado anteriormente que los usuarios más jóvenes tratan a ChatGPT como un sistema operativo para decisiones de vida, consultando a la IA sobre todo, desde movimientos de carrera hasta relaciones personales. Esa dependencia subyace en el impulso de la empresa para incorporar infraestructura de apoyo emocional directamente en el producto.

Las reacciones al lanzamiento son mixtas. Algunos usuarios ven la capacidad de enlistar a un adulto de confianza como algo tranquilizador, especialmente para personas vulnerables que de otro modo podrían sufrir en silencio. Otros encuentran la idea de monitoreo impulsado por IA inquietante. En una entrevista reciente, Amy Sutton de Freedom Counselling advirtió que la vigilancia de IA podría exacerbate el estigma de la salud mental, lo que lleva a las personas a ocultar signos de angustia y potencialmente profundizar el problema.

El enfoque de OpenAI refleja una tendencia más amplia en la industria: a medida que los sistemas de IA se vuelven más integrados en la vida diaria, las empresas están luchando por equilibrar la seguridad del usuario y la privacidad. El Contacto de Confianza ilustra un intento de proporcionar una red de seguridad mientras limita la exposición de datos, pero también plantea preguntas sobre cuán cómodos están los usuarios con alertas automatizadas y revisión humana de sus conversaciones privadas.

Por ahora, la función remains limitada a usuarios que optan por participar y designan un contacto. OpenAI no ha divulgado un calendario para un lanzamiento más amplio, pero la empresa dice que continuará perfeccionando el sistema basado en comentarios de expertos en salud mental y uso en el mundo real.

#OpenAI#ChatGPT#Contacto de Confianza#salud mental#seguridad de IA#prevención del suicidio#privacidad del usuario#monitoreo de IA#Sam Altman#expertos en salud mental

También disponible en: