OpenAI Publica Estimaciones sobre Usuarios de ChatGPT que Experimentan Crisis de Salud Mental y Anuncia Mejoras en el Modelo

Puntos clave
- OpenAI estima que el 0,07% de los usuarios activos de ChatGPT pueden mostrar signos de manía o psicosis semanalmente.
- Aproximadamente el 0,15% de los usuarios exhibe lenguaje que sugiere una posible planificación o intento suicida.
- Otro 0,15% parece estar excesivamente apegado emocionalmente al chatbot, posiblemente a expensas de las relaciones en el mundo real.
- GPT-5 ha sido ajustado para reconocer señales de angustia y responder con empatía mientras evita reforzar creencias dañinas.
- La evaluación clínica de más de 1.800 respuestas mostró que GPT-5 redujo las respuestas inseguras en un 39% a 52% en comparación con GPT-4o.
- OpenAI trabajó con más de 170 profesionales de la salud mental en todo el mundo para desarrollar las mejoras de seguridad.
- La empresa reconoce las mediciones internas y la limitada visión del impacto en el mundo real.
- Las conversaciones más largas históricamente degradan el rendimiento del modelo, pero OpenAI informa progreso en la dirección de abordar este problema.
OpenAI dio a conocer estimaciones preliminares sobre la cantidad de usuarios activos de ChatGPT que pueden exhibir signos de problemas de salud mental graves, incluyendo manía, psicosis e ideación suicida, en una semana típica. La empresa dijo que los datos se recopilaron con la ayuda de cientos de profesionales de la salud mental en todo el mundo. OpenAI también anunció que su modelo más nuevo, GPT-5, ha sido ajustado para reconocer señales de angustia de manera más confiable y responder con empatía mientras evita reforzar creencias dañinas.
OpenAI Proporciona los Primeros Datos sobre Riesgos de Salud Mental de los Usuarios
OpenAI publicó estimaciones aproximadas de la proporción de usuarios activos de ChatGPT que pueden mostrar posibles signos de emergencias de salud mental graves en una semana determinada. Trabajando con más de 170 psiquiatras, psicólogos y médicos de atención primaria en decenas de países, la empresa calculó que aproximadamente el 0,07 por ciento de los usuarios muestra posibles signos de manía o psicosis, mientras que alrededor del 0,15 por ciento exhibe lenguaje que indica una posible planificación o intento suicida. Un porcentaje adicional del 0,15 por ciento parece estar excesivamente apegado emocionalmente al chatbot, priorizandolo sobre las relaciones, obligaciones o bienestar en el mundo real.
Dado el reclamo de OpenAI de 800 millones de usuarios activos semanales, las estimaciones se traducen en aproximadamente 560.000 individuos que potencialmente experimentan manía o psicosis y alrededor de 2,4 millones que posiblemente expresan pensamientos o un apego insano al modelo cada semana.
Mejoras en el Modelo Orientadas a la Seguridad
La empresa dijo que su modelo de lenguaje más nuevo, GPT-5, ha sido perfeccionado para reconocer mejor las señales de angustia y responder de manera que fomente la ayuda profesional. En escenarios donde los usuarios presentan pensamiento delirante, el modelo está diseñado para expresar empatía mientras se abstiene de afirmar creencias infundadas. OpenAI proporcionó un ejemplo hipotético en el que un usuario afirma ser objetivo de aviones; el modelo reconoce los sentimientos del usuario pero clarifica que ninguna fuerza externa puede leer o insertar pensamientos.
Los clínicos evaluaron más de 1.800 respuestas del modelo que involucraban posible psicosis, suicidio y apego emocional. En comparación con GPT-4o, GPT-5 redujo las respuestas no deseadas en un 39 por ciento a 52 por ciento en estas categorías, según las mediciones internas de OpenAI.
OpenAI reconoció que sus métricas están diseñadas internamente y que los resultados en el mundo real siguen siendo inciertos. La empresa no divulga los mecanismos exactos que utiliza para señalarizar la angustia, señalando que puede considerar el historial de chat más amplio de un usuario. OpenAI también destacó que las conversaciones más largas históricamente degradan la confiabilidad del modelo, pero afirma haber hecho progresos significativos en la mitigación de este problema.
Mientras que los datos sugieren que un número considerable de usuarios puede estar en riesgo, OpenAI advirtió que detectar y medir estas señales de angustia rarás es difícil y que puede haber superposición entre las categorías identificadas.