ChatGPT puede requerir verificación de identidad para adultos, dice el CEO

Puntos clave
- OpenAI planea introducir una verificación de edad impulsada por IA para los usuarios de ChatGPT
OpenAI está preparando un sistema de verificación de edad para ChatGPT, similar a las versiones específicas para jóvenes que han introducido otras plataformas. La medida, anunciada por el CEO Sam Altman, busca mejorar la seguridad para los usuarios más jóvenes, pero genera preocupaciones sobre la privacidad para los adultos que deberán compartir información personal.
Contexto de la industria y características para jóvenes
OpenAI se suma a un espacio donde varias empresas tecnológicas han lanzado versiones de sus servicios dirigidas a audiencias más jóvenes. Plataformas como YouTube Kids, Instagram Teen Accounts y las restricciones de TikTok para menores de 16 años son citadas como esfuerzos comparables para crear entornos digitales más seguros. Sin embargo, estas medidas a menudo encuentran formas de evasión, con adolescentes que utilizan fechas de nacimiento falsas, cuentas prestadas o soluciones técnicas para evitar los controles de edad.
Un informe de la BBC de 2024 destacó que el 22 por ciento de los niños mienten sobre su edad en las redes sociales, afirmando ser mayores de 18 años. Esta estadística subraya el desafío continuo de hacer cumplir las políticas relacionadas con la edad en los servicios en línea.
Sistema de verificación de edad planeado por OpenAI
OpenAI pretende avanzar con un mecanismo de verificación de edad impulsado por IA a pesar de que su tecnología se describe como "no probada". La empresa reconoce que los adultos pueden tener que sacrificar la privacidad y la flexibilidad para satisfacer los requisitos de verificación. En una declaración pública, el CEO Sam Altman enfatizó la tensión entre la privacidad y la seguridad, señalando: "La gente habla con la IA sobre cosas cada vez más personales; es diferente a las generaciones anteriores de tecnología, y creemos que pueden ser una de las cuentas más personalmente sensibles que tengas".
Preocupaciones de seguridad y incidentes recientes
La búsqueda de una verificación más estricta sigue al reconocimiento anterior de OpenAI de que los salvaguardias de seguridad de ChatGPT pueden deteriorarse durante conversaciones prolongadas. La empresa advirtió que a medida que crece el intercambio entre el usuario y el modelo, "partes de la capacitación de seguridad del modelo pueden degradarse". Inicialmente, el sistema puede dirigir correctamente a los usuarios a líneas de ayuda para el suicidio, pero después de muchos intercambios, podría proporcionar respuestas que contradigan las salvaguardias establecidas.
Preguntas sin respuesta y brechas de implementación
OpenAI no ha aclarado cómo su sistema de predicción de edad tratará a los usuarios que no han pasado por la verificación, si se extenderá al acceso a la API o cómo navegará por las diferentes definiciones legales de la edad en diferentes jurisdicciones. Estas brechas dejan incertidumbre para los usuarios existentes y los desarrolladores que dependen de las plataformas de OpenAI.
Independientemente de la edad, todos los usuarios seguirán viendo recordatorios en la aplicación que les animan a tomar descansos durante sesiones prolongadas de ChatGPT. Esta función, introducida anteriormente en el año, responde a informes de usuarios que interactúan con el chatbot durante períodos prolongados.
Mirando hacia adelante
El marco de verificación propuesto por OpenAI refleja una tendencia más amplia en la industria hacia el equilibrio entre la seguridad del usuario y los derechos de privacidad. Mientras que la iniciativa busca proteger a los usuarios más jóvenes de posibles daños, la falta de planes de implementación detallados y la existencia de fallos de seguridad anteriores plantean preguntas sobre su eficacia general.