OpenAI presenta controles parentales para ChatGPT tras demanda por suicidio de adolescente

OpenAI announces parental controls for ChatGPT after teen suicide lawsuit

Puntos clave

  • OpenAI introducirá controles parentales que permiten a los padres vincular y administrar cuentas de ChatGPT de adolescentes (edad 13+).
  • Los controles incluyen reglas de respuesta adecuadas para la edad, deshabilitación de funcionalidades (memoria, historial de chat) y alertas de angustia.
  • La implementación comienza dentro de 120 días, con muchas mejoras programadas para lanzarse este año.
  • Las conversaciones de salud mental sensibles serán dirigidas a modelos de razonamiento simulado para un mejor manejo.
  • Las características de recordatorio de pausas existentes siguen siendo activas, animando a los usuarios a pausar sesiones largas.
  • Un Consejo de Expertos en Bienestar y IA guía el desarrollo de medidas de seguridad.
  • La iniciativa sigue a casos de alto perfil, incluida una demanda por suicidio de adolescente y un homicidio relacionado con delusiones.
  • OpenAI enfatiza el trabajo continuo más allá de la implementación inicial para mejorar continuamente la seguridad de la IA.

OpenAI anunció un nuevo conjunto de controles parentales para ChatGPT, que permiten a los padres vincular cuentas con adolescentes de 13 años o más, establecer reglas de respuesta adecuadas para la edad, deshabilitar funciones como la memoria y el historial de chat, y recibir alertas cuando se detecta angustia aguda.

Antecedentes y contexto

Los anuncios recientes de OpenAI llegan después de varios incidentes muy publicitados que han generado preocupación sobre la forma en que la plataforma maneja a los usuarios vulnerables. Se presentó una demanda por parte de una familia que alega que su hijo de 16 años murió por suicidio después de interactuar extensivamente con ChatGPT, durante el cual la IA mencionó el suicidio repetidamente. En un informe separado, un hombre de 56 años mató a su madre y luego se suicidó después de que el chatbot reforzó sus delusiones paranoicas en lugar de cuestionarlas. Estos casos han intensificado la escrutinía sobre la seguridad de la IA, particularmente para los usuarios más jóvenes o en riesgo.

Nuevos controles parentales

Las características de control parental de OpenAI están diseñadas para dar a los cuidadores una supervisión directa de las cuentas de los adolescentes. Los padres podrán vincular sus propias cuentas a la cuenta de un adolescente (edad mínima 13) a través de invitaciones por correo electrónico. Una vez vinculadas, podrán:

  • Activar reglas de comportamiento adecuadas para la edad que están activadas de forma predeterminada.
  • Elegir qué funcionalidades deshabilitar, incluida la retención de memoria y el acceso al historial de chat.
  • Recibir notificaciones cuando el sistema detecta que un adolescente está experimentando angustia aguda.

La implementación comenzará dentro de los próximos 120 días, con OpenAI indicando que muchas de estas mejoras están programadas para lanzarse este año. La empresa enfatizó que el trabajo continuará más allá de este período, pero el enfoque inicial es entregar rápidamente salvaguardias para los usuarios más jóvenes.

Mejoras adicionales de seguridad

Más allá de los controles parentales, OpenAI está expandiendo su manejo de la salud mental. Las conversaciones sensibles serán dirigidas a los modelos de razonamiento simulado de la empresa, que están diseñados para proporcionar respuestas más matizadas. Las herramientas existentes, como los recordatorios en la aplicación que animan a los usuarios a tomar pausas después de sesiones largas, introducidos en agosto, siguen siendo parte de la pila de seguridad.

Orientación del Consejo de Expertos

El desarrollo de estas salvaguardias está siendo supervisado por un Consejo de Expertos en Bienestar y IA, formado para dar forma a una visión basada en evidencia de cómo la inteligencia artificial puede apoyar la salud mental. El papel del consejo incluye definir métricas para el bienestar, establecer prioridades y ayudar a diseñar futuros mecanismos de seguridad, incluido el sistema de control parental.

Perspectiva futura

El liderazgo de OpenAI enmarcó estas medidas como una respuesta proactiva a los "casos desgarradores" y señaló un compromiso con la mejora continua. La empresa prometió seguir perfeccionando su enfoque, trabajando en estrecha colaboración con expertos externos y expandiendo las características de seguridad a medida que surjan nuevos desafíos. Si bien los controles parentales representan un paso concreto hacia adelante, OpenAI reconoce que serán necesarios cambios sistémicos más amplios para garantizar el uso responsable de la IA en todos los grupos de usuarios.

#OpenAI#ChatGPT#Controles parentales#Seguridad de la IA#Consejo de Expertos en Bienestar y IA#Demanda por suicidio de adolescente#Salud mental#Inteligencia artificial#Protección del usuario#Regulación de la tecnología

También disponible en:

OpenAI presenta controles parentales para ChatGPT tras demanda por suicidio de adolescente | AI News