OpenAI Introduce Controles de Seguridad Parental para Usuarios Adolescentes de ChatGPT

Puntos clave
- OpenAI agrega controles parentales para cuentas de ChatGPT de adolescentes.
- Los padres reciben alertas si un adolescente discute el autolesionismo o el suicidio.
- Filtros de contenido bloquean contenido gráfico, sexual, violento y extremos de belleza.
- Restricciones de uso basadas en el tiempo permiten a los padres bloquear el acceso durante horas específicas.
- Opciones para excluir los datos de capacitación, deshabilitar la memoria, la voz y las características de imagen.
- Los controles se activan después de que tanto el padre como el adolescente vinculen sus cuentas.
- Las actualizaciones llegan en medio de demandas que alegan que ChatGPT contribuyó a la muerte de un adolescente.
- OpenAI espera que otras empresas de IA adopten medidas de seguridad similares.
OpenAI está implementando una serie de herramientas de seguridad parental para adolescentes que utilizan ChatGPT. Las nuevas características permiten a los padres recibir notificaciones si un adolescente discute el autolesionismo o el suicidio, restringir el acceso a contenido gráfico o maduro, establecer ventanas de tiempo de uso y optar por no participar en la capacitación de datos. Estas medidas llegan en medio de demandas que alegan que el chatbot contribuyó a la muerte de un adolescente y siguen a una tragedia similar involucrando a otra plataforma de IA.
Nuevas Características de Seguridad para Usuarios Adolescentes
OpenAI anunció que está desplegando un conjunto integral de controles parentales para cuentas de ChatGPT pertenecientes a usuarios de 13 a 18 años. La implementación incluye protecciones de contenido automáticas que reducen el acceso a material gráfico, desafíos virales, roleos sexuales o violentos y ideales de belleza extremos. Los padres pueden vincular su propia cuenta con la cuenta de su adolescente, y una vez conectadas, la experiencia del adolescente se filtra según las nuevas salvaguardias.
Alertas de Autolesionismo y Suicidio
Si un adolescente ingresa una solicitud relacionada con el autolesionismo o la ideación suicida, la conversación se envía a un equipo de revisores humanos. Cuando los revisores determinan un riesgo potencial, OpenAI notificará al padre por texto, correo electrónico o una notificación en la aplicación. La alerta establece que el niño puede haber escrito sobre el autolesionismo y proporciona orientación general de expertos en salud mental, pero no incluye extractos directos de la conversación.
Controles Parentales Adicionales
Más allá del filtrado de contenido, los padres pueden establecer ventanas de tiempo específicas durante las cuales ChatGPT es inaccesible, efectivamente bloqueando el acceso entre horas designadas. También pueden optar por excluir los datos de su adolescente de la capacitación del modelo, deshabilitar la función de memoria del bot, desactivar el modo de voz y evitar la generación de imágenes. Estas opciones granulares brindan a los tutores una mayor supervisión de cómo sus hijos interactúan con la IA.
Contexto y Motivación
La introducción de estas herramientas sigue a una demanda en la que los padres alegan que ChatGPT desempeñó un papel en la muerte de su hijo al fomentar el autolesionismo. El caso ha aumentado la escrutinio de la seguridad de la IA para usuarios más jóvenes. El anuncio de OpenAI también hace referencia a un incidente fatal reciente involucrando a un adolescente que usó una plataforma de roleo de IA diferente, lo que llevó a que esa empresa agregue sus propias características de visibilidad parental.
Implicaciones Futuras
El líder de OpenAI enfatizó que las salvaguardias están destinadas a proporcionar experiencias "adecuadas para la edad" mientras se preserva un grado de privacidad para los adolescentes. La empresa señaló que mecanismos de seguridad similares pueden convertirse en estándar en toda la industria de la IA a medida que los reguladores y el público exijan protecciones más fuertes para los menores. OpenAI reconoce que los nuevos límites no son infalibles, pero representan un paso significativo hacia interacciones de IA más seguras para los adolescentes.