El equipo de seguridad de OpenAI advierte contra el lanzamiento del modo adulto de ChatGPT

Puntos clave
- Los expertos en seguridad internos de OpenAI dudan públicamente de la capacidad de la empresa para bloquear a los menores del contenido adulto.
- Un ejecutivo senior de seguridad dejó la empresa después de oponerse al lanzamiento del modo adulto.
- Un segundo ex empleado advirtió a los padres que no confíen en las afirmaciones de OpenAI sobre la nueva función.
- OpenAI anunció un plan de monitoreo para los posibles efectos a largo plazo del modo adulto.
- Un error previo permitió a los menores acceder a contenido gráfico erótico, lo que llevó a la empresa a implementar una solución.
- Los críticos destacan los métodos de verificación de edad débiles y el riesgo de que los menores eviten las salvaguardias.
- Los padres siguen siendo escépticos sobre la capacidad de OpenAI para proteger a los usuarios jóvenes.
Expertos en seguridad internos de OpenAI han expresado públicamente su oposición al lanzamiento de un nuevo "modo adulto" para ChatGPT, cuestionando la capacidad de la empresa para evitar que los menores accedan a contenido explícito. La disidencia sigue la partida de un ejecutivo senior de seguridad que se había opuesto a la función, y un segundo ex empleado que advirtió a los padres que no confíen en las garantías de OpenAI. Un error reciente que permitió a los menores ver contenido gráfico erótico aumenta las preocupaciones, lo que lleva a OpenAI a prometer un plan de monitoreo mientras los críticos siguen siendo escépticos sobre su efectividad.
Antecedentes de la disputa
Fuentes familiarizadas con las discusiones internas en OpenAI han expresado dudas fuertes sobre si las herramientas de la empresa pueden bloquear efectivamente a los niños para que no accedan a material prohibido. Las preocupaciones se centran en el próximo "modo adulto" que permitiría contenido más maduro en las respuestas de ChatGPT.
Disidencia interna y salidas de personal
Dos ex empleados de seguridad han hablado. El primero, un ejecutivo senior de seguridad, dejó la empresa después de oponerse al lanzamiento del modo adulto. OpenAI ha negado que la partida estuviera conectada al debate de política, pero el ex empleado criticó directamente la capacidad de la empresa para prevenir que los menores encuentren contenido gráfico o explotador. Un segundo ex empleado, que dejó la empresa el otoño pasado, advirtió a los padres que no confíen en las afirmaciones de OpenAI sobre la nueva función.
Respuesta de la empresa
En reacción a las críticas, un portavoz de OpenAI dijo que la empresa "tiene un plan desarrollado para monitorear una serie de posibles efectos a largo plazo del modo adulto, tanto positivos como negativos". La declaración sugiere que OpenAI pretende seguir los resultados después de que se despliegue la función, aunque los críticos señalan que el plan parece haber sido creado con los mismos expertos que ahora se oponen públicamente al lanzamiento.
Problemas técnicos que aumentan la alarma
El debate se ve agravado por un error que permitió a los menores recibir contenido gráfico erótico de ChatGPT. El error surgió cuando OpenAI comenzó a probar salidas más permisivas a principios de este año. Según el propio reconocimiento de la empresa, el error permitió que las respuestas se salieran de las pautas establecidas, que estaban destinadas a restringir "contenido sensible como la erótica a contextos estrechos como la ciencia, la historia o la información". OpenAI dijo que estaba desplegando activamente una solución para limitar estas generaciones.
Implicaciones para los padres y los reguladores
La combinación de desacuerdo interno, rotación de personal y fallos técnicos deja a los padres precavidos sobre las salvaguardias de OpenAI. Los críticos argumentan que las comprobaciones de edad ineficaces y la posibilidad de que los menores astutos eviten los controles podrían exponer a los usuarios jóvenes a material dañino. La situación también plantea preguntas sobre cómo la empresa abordará los posibles efectos a largo plazo y si se necesitará una supervisión externa.
Postura pública de OpenAI
Aunque la empresa no ha respondido directamente a las consultas de los medios recientemente, sigue enfatizando su compromiso de monitorear y ajustar el modo adulto según los datos que surjan. La comunicación pública de la empresa subraya la voluntad de abordar "posibles efectos a largo plazo", aunque la disidencia de su propio equipo de seguridad sugiere una brecha entre las evaluaciones internas y las garantías externas.