Ex-líder de Segurança da OpenAI Soa Alarme sobre Reintrodução de Conteúdo Erótico

Pontos principais
- Steven Adler, ex-líder de segurança da OpenAI, expressou preocupações sobre a reintrodução planejada de conteúdo erótico.
- Tentativas anteriores de bloquear interações eróticas foram impulsionadas por ferramentas de monitoramento limitadas e preocupações com a saúde mental.
- A OpenAI alega que novas ferramentas de mitigação justificam a retirada da restrição, mas as evidências permanecem incertas.
- Uma parte significativa dos usuários exibe sinais graves de saúde mental durante interações com o chatbot.
- Adler insta a OpenAI a publicar dados de segurança regulares e comparativos para construir confiança pública.
- Ele defende padrões de segurança da indústria e testes padronizados semelhantes a inspeções de veículos.
- Desenvolver métodos de interpretabilidade é crucial para entender e controlar o comportamento do modelo.
- Sem um esforço coordenado, pressões competitivas podem minar salvaguardas de segurança.
Steven Adler, que anteriormente supervisionou a segurança do produto na OpenAI, disse em uma entrevista de tecnologia que o plano da empresa de permitir interações eróticas para adultos verificados levanta sérias questões de segurança. Ele destacou desafios passados na detecção e gerenciamento do uso erótico, preocupações contínuas de saúde mental entre os usuários e a necessidade de relatórios de dados transparentes.
Contexto
Steven Adler passou vários anos liderando iniciativas de segurança na OpenAI, onde ajudou a moldar políticas para modelos de linguagem grandes iniciais e sistemas avançados posteriores. Seu papel envolvia avaliar riscos de produtos, avaliar capacidades perigosas e aconselhar sobre a prontidão de AI cada vez mais capaz.
Erosão de Medidas de Segurança
Adler explicou que a empresa anteriormente bloqueou o conteúdo erótico após descobrir um surto de tráfego de role-play sexual que surgiu involuntariamente de interações de usuários. Ele disse que a decisão foi baseada em ferramentas limitadas para monitorar e mitigar tais casos de uso e em preocupações sobre o impacto na saúde mental dos usuários.
Reintrodução de Conteúdo Erótico
O anúncio recente da OpenAI de levantar a restrição para adultos verificados, segundo Adler, se baseia em alegações de novas ferramentas de mitigação. Ele alertou que as evidências para essas ferramentas permanecem opacas e que os usuários merecem mais do que garantias verbais. Ele instou a empresa a demonstrar salvaguardas concretas antes de expandir o acesso.
Riscos para a Saúde Mental
Adler destacou preocupações contínuas sobre uma grande parte dos usuários que mostram sinais de grave distresse mental ao interagir com o chatbot. Ele argumentou que, sem dados longitudinais transparentes mostrando uma declínio nesses incidentes, é difícil avaliar se as novas medidas são eficazes.
Chamado para Transparência e Responsabilidade
O ex-chefe de segurança chamou por relatórios públicos regulares de métricas de segurança, semelhantes às práticas em outras grandes plataformas. Ele sugeriu que a OpenAI deve compartilhar dados comparativos ao longo do tempo para construir confiança e permitir escrutínio externo.
Padrões de Segurança da Indústria
Adler notou a falta de benchmarks de segurança uniformes entre os desenvolvedores de AI e defendeu regimes de testes padronizados, comparando a necessidade a inspeções de segurança de veículos. Ele apontou para os quadros regulatórios emergentes na Europa como um passo em direção a um modelagem de riscos mais rigorosa.
Perspectiva Futura
Olhando para frente, Adler enfatizou a importância de desenvolver ferramentas de interpretabilidade que possam apontar comportamentos internos de modelos e orientar implantações mais seguras. Ele alertou que, sem um esforço coordenado da indústria, pressões competitivas podem superar investimentos em segurança, potencialmente levando a resultados prejudiciais.