OpenAI informa que más de un millón de usuarios semanales de ChatGPT discuten el suicidio

OpenAI says over a million people talk to ChatGPT about suicide weekly

Puntos clave

  • OpenAI informa que el 0,15% de los usuarios activos semanales de ChatGPT discuten la planificación o intención suicida, lo que supera el millón de personas cada semana.
  • Cientos de miles de usuarios muestran una mayor dependencia emocional, psicosis o manía en conversaciones con el chatbot.
  • Más de 170 expertos en salud mental fueron consultados para mejorar la respuesta del modelo a temas de salud mental.
  • El nuevo modelo GPT-5 alcanza una tasa de cumplimiento del 91% en las pruebas de seguridad relacionadas con el suicidio, en comparación con el 77% en la versión anterior.
  • OpenAI está agregando métricas de evaluación para la dependencia emocional y las emergencias de salud mental no suicidas.
  • Un sistema de predicción de edad y controles parentales más estrictos se están introduciendo para proteger a los usuarios infantiles.
  • La empresa enfatiza las mejoras continuas en la seguridad del diálogo de larga forma y las medidas de ética de IA más amplias.

OpenAI reveló que el 0,15% de los usuarios activos semanales de ChatGPT participan en conversaciones que incluyen indicadores explícitos de planificación o intención suicida, lo que representa a más de un millón de personas cada semana. La empresa también señaló un aumento en la dependencia emocional y signos de psicosis o manía entre sus usuarios. Después de consultar con más de 170 expertos en salud mental, OpenAI afirma que su modelo GPT-5 más reciente muestra una mejora en el cumplimiento de las pautas de seguridad, alcanzando un 91% de adherencia en las pruebas relacionadas con el suicidio, en comparación con el 77% anterior. Nuevas salvaguardias, incluyendo un sistema de predicción de edad y controles más estrictos para los niños, buscan reducir los riesgos mientras la empresa continúa perfeccionando sus medidas de seguridad de IA.

OpenAI publica datos sobre el uso de la salud mental

OpenAI anunció nuevos datos que ilustran cuántos de los usuarios de ChatGPT están luchando con desafíos de salud mental. La empresa informó que el 0,15% de sus usuarios activos semanales tienen conversaciones que contienen indicadores explícitos de planificación o intención suicida potencial. Con una base de usuarios que supera los 800 millones de usuarios activos semanales, este porcentaje se traduce en más de un millón de individuos cada semana.

Además de los indicadores suicidas, OpenAI dijo que una participación similar de usuarios muestra una mayor dependencia emocional del chatbot, y cientos de miles muestran signos de psicosis o manía durante las interacciones semanales. Si bien la empresa describe este tipo de conversaciones como "extremadamente raras", reconoce que afectan a cientos de miles de personas de manera regular.

Alcance de las conversaciones suicidas

Las cifras reveladas resaltan la gran escala de preocupaciones de salud mental dentro de la plataforma de conversación impulsada por IA. OpenAI estima que el número de usuarios que discuten pensamientos o planes suicidas cada semana supera el millón, subrayando la importancia de mecanismos de seguridad robustos. La empresa también señaló que la dependencia emocional de ChatGPT y las manifestaciones de síntomas graves de salud mental son observables en toda su base de usuarios.

Participación de expertos y mejoras en el modelo

Para abordar estos desafíos, OpenAI consultó con más de 170 expertos en salud mental. Esos clínicos observaron que la versión más reciente de ChatGPT responde más apropiadamente y de manera más consistente que las versiones anteriores. OpenAI afirma que su modelo GPT-5 más reciente demuestra una tasa de cumplimiento del 91% con los comportamientos deseados por la empresa en las evaluaciones centradas en conversaciones suicidas, en comparación con una tasa de cumplimiento del 77% para la iteración anterior de GPT-5.

OpenAI también informa que GPT-5 muestra un mejor desempeño en diálogos de larga forma, un área donde las salvaguardias anteriores eran menos efectivas. La empresa está agregando nuevas métricas de evaluación que miden específicamente la dependencia emocional y las emergencias de salud mental no suicidas, ampliando su prueba de seguridad básica para modelos de IA.

Nuevas salvaguardias y protección infantil

Más allá de las mejoras en el modelo, OpenAI está implementando controles adicionales destinados a proteger a los usuarios más jóvenes. La empresa está desarrollando un sistema de predicción de edad diseñado para detectar automáticamente a los niños que utilizan ChatGPT y para imponer un conjunto más estricto de salvaguardias para ellos. Estas medidas incluyen controles parentales más rigurosos y la introducción de capas de seguridad que limitan la exposición a contenido potencialmente dañino.

Los esfuerzos de OpenAI también se extienden a brindar recursos para los usuarios en crisis, con referencias a líneas directas nacionales de prevención del suicidio y servicios de texto, aunque los detalles específicos de los recursos no se enumeran en el lanzamiento de datos.

Implicaciones y respuesta de la industria

El lanzamiento de estas estadísticas coloca las consideraciones de salud mental en el centro del diálogo en curso sobre la seguridad de la IA. Mientras OpenAI enfatiza las mejoras en el comportamiento del modelo y la adición de salvaguardias guiadas por expertos, el volumen de usuarios que discuten pensamientos suicidas resalta un riesgo persistente que requiere un monitoreo continuo. El compromiso público de la empresa de consultar a profesionales de la salud mental y de mejorar las métricas de seguridad señala una postura proactiva, pero los datos también subrayan los desafíos inherentes a la escalabilidad de las interacciones seguras de IA para una base de usuarios global masiva.

La divulgación de OpenAI llega en medio de un escrutinio más amplio del impacto de las plataformas de IA en poblaciones vulnerables. Al cuantificar la magnitud de las conversaciones suicidas y describir pasos concretos hacia la mitigación, OpenAI proporciona una visión transparente tanto del problema como de la estrategia de respuesta de la empresa.

#OpenAI#ChatGPT#salud mental#suicidio#GPT-5#seguridad de IA#expertos en salud mental#safeguards parentales#ética de IA#seguridad del usuario

También disponible en: