El plan de OpenAI para un modo de adultos en ChatGPT enfrenta oposición interna después de la salida de la líder de políticas

OpenAI’s Planned Adult Mode for ChatGPT Meets Internal Pushback After Policy Lead’s Exit

Puntos clave

  • OpenAI está desarrollando un modo solo para adultos para ChatGPT para que los adultos verificados puedan acceder a contenido erótico.
  • La jefa de políticas de productos, Ryan Beiermeister, advirtió que los mecanismos de seguridad contra la explotación infantil eran insuficientes.
  • Beiermeister abandonó la empresa en medio de una disputa, que OpenAI dice no está relacionada con el plan de modo para adultos.
  • La empresa cita una alegación de discriminación que la ejecutiva que abandonó la empresa niega.
  • Los pares de la industria también están explorando la inteligencia artificial orientada a adultos, lo que está atrayendo la atención regulatoria sobre las preocupaciones de seguridad.
  • La partida de Beiermeister plantea preguntas sobre la robustez de la supervisión de seguridad interna de OpenAI.

OpenAI está preparando una opción solo para adultos para ChatGPT que permitiría a adultos verificados generar contenido erótico. Al mismo tiempo, la jefa de políticas de productos de la empresa, Ryan Beiermeister, abandonó la firma después de expresar preocupaciones de que los mecanismos de seguridad contra la explotación infantil fueran insuficientes. OpenAI afirma que su partida no está relacionada con los planes de modo para adultos y se debe a una alegación de discriminación que ella niega. El momento ha generado debate sobre las prioridades de seguridad de la empresa mientras se mueve hacia capacidades de contenido más amplias.

Antecedentes

El chatbot insignia de OpenAI, ChatGPT, ha sido posicionado como un asistente de propósito general utilizado en lugares de trabajo, aulas y hogares. El modelo se construyó originalmente con fuertes restricciones para evitar problemas de salud mental y contenido inapropiado. Con el tiempo, algunos usuarios han expresado frustración con el tono cauteloso del sistema.

Propuesta de modo para adultos

El CEO Sam Altman anunció planes para un "modo para adultos" que permitiría a adultos verificados generar historias eróticas y participar en conversaciones explícitas. Altman describió el cambio como un movimiento hacia una experiencia más flexible y menos saneada ahora que la empresa cree que ha mejorado las herramientas de seguridad y los métodos de verificación de edad. La función propuesta estaría limitada a adultos verificados, con el objetivo de proteger a los usuarios más jóvenes.

Preocupaciones y partida de la líder de políticas

Ryan Beiermeister, quien lideraba la política de productos en OpenAI, advirtió a sus colegas internos de que los mecanismos para bloquear el contenido de explotación infantil no eran lo suficientemente fuertes. Ella destacó la dificultad de prevenir que los usuarios adolescentes accedan a material para adultos, señalando que las verificaciones de identidad podrían ser falsificadas. Poco después de expresar estas preocupaciones, Beiermeister abandonó la empresa. OpenAI declaró que su salida no estaba relacionada con las objeciones sobre el plan de modo para adultos, sino que se debía a una alegación de discriminación que ella ha calificado de "absolutamente falsa".

Contexto de la industria

El movimiento hacia el contenido de inteligencia artificial orientado a adultos refleja las presiones del mercado más amplio. Los competidores, como xAI de Elon Musk, han lanzado compañeros de inteligencia artificial que combinan la conversación con elementos coquetos o eróticos. La reciente atención regulatoria sobre tecnologías similares, como las investigaciones del Reino Unido sobre otro sistema de inteligencia artificial que generó deepfakes sexualizados, subraya los desafíos de equilibrar la innovación con las salvaguardias.

Implicaciones

El momento de la partida de Beiermeister plantea preguntas sobre los debates de política interna de OpenAI y la robustez de su marco de seguridad mientras amplía las capacidades de contenido. Los observadores señalan que perder a un líder senior responsable de elaborar reglas de seguridad podría afectar la confianza pública en la forma en que la empresa gestionará los riesgos, especialmente en lo que respecta a los menores. La respuesta de OpenAI enfatiza que la disensión interna no impide el desarrollo del modo para adultos, pero el episodio destaca la tensión continua entre las ambiciones de crecimiento y las salvaguardias éticas.

#OpenAI#ChatGPT#contenido para adultos#política de IA#moderación de contenido#seguridad digital#inteligencia artificial#ética tecnológica#seguridad de productos#competencia de la industria

También disponible en: