Ação judicial de Musk desafia a mudança da OpenAI de pesquisas focadas em segurança para AI impulsionada por lucro

Musk’s lawsuit challenges OpenAI’s shift from safety‑focused research to profit‑driven AI

Pontos principais

  • Elon Musk entra com ação judicial alegando que a OpenAI abandonou sua missão de segurança em primeiro lugar para produtos de IA impulsionados por lucro.
  • Ex-funcionária Rosie Campbell testemunha que equipes-chave de segurança foram desfeitas à medida que a OpenAI mudou seu foco.
  • A Microsoft implantou o GPT-4 na Índia antes da aprovação do Conselho de Segurança de Implantação da OpenAI, despertando preocupações de segurança.
  • Membro do conselho Tasha McCauley alega que o CEO Sam Altman não divulgou decisões importantes e conflitos de interesse.
  • Testemunha especial David Schizer destaca que as prioridades de segurança declaradas da OpenAI não estão sendo aplicadas consistentemente.
  • O caso revive o debate sobre se uma regulação governamental mais forte é necessária para o desenvolvimento de IA avançada.

A ação legal de Elon Musk contra a OpenAI alega que o braço com fins lucrativos do laboratório abandonou sua missão original de segurança em favor de um lançamento rápido de produtos. Em um tribunal federal em Oakland, a ex-funcionária e membro do conselho Rosie Campbell testemunhou que equipes-chave de segurança foram desfeitas e que um modelo GPT-4 implantado pela Microsoft entrou no mercado indiano sem a aprovação do Conselho de Segurança de Implantação da OpenAI.

A ação judicial de Elon Musk contra a OpenAI entrou em um tribunal federal em Oakland na quinta-feira, acusando o laboratório de inteligência artificial de trair sua promessa fundadora de priorizar a segurança da humanidade à medida que procura a inteligência artificial geral. A ação gira em torno da questão de saber se a subsidiária com fins lucrativos da empresa desviou a OpenAI de uma cultura de pesquisa em primeiro lugar e em direção a um modelo centrado em produtos que poderia comprometer as salvaguardas de segurança.

Rosie Campbell, que se juntou à equipe de prontidão para AGI da OpenAI em 2021 e saiu em 2024, subiu ao banco para descrever as mudanças internas que testemunhou. Campbell disse que os primeiros dias do laboratório foram dominados por discussões sobre AGI e segurança, mas com o tempo "tornou-se mais como uma organização focada em produtos". Ela apontou para a dissolução de dois grupos orientados para a segurança: a equipe de prontidão para AGI que liderava e a equipe Super Alignment, ambos dissolvidos à medida que a empresa transferia recursos para implantações comerciais.

Um incidente realçou a tensão. A Microsoft lançou uma versão do modelo GPT-4 da OpenAI por meio de seu mecanismo de busca Bing na Índia antes que o modelo recebesse a aprovação do Conselho de Segurança de Implantação (DSB) da OpenAI. Campbell testemunhou que, embora o modelo não representasse um "grande risco", o lançamento prematuro estabeleceu um precedente perigoso. "Queremos ter bons processos de segurança em vigor que sabemos que estão sendo seguidos de forma confiável", disse ela, enfatizando a necessidade de padrões fortes à medida que as capacidades de IA crescem.

Durante o interrogatório, Campbell reconheceu que um financiamento substancial é essencial para alcançar a AGI, mas advertiu que "criar um modelo de computador superinteligente sem as medidas de segurança certas... não se encaixaria na missão da organização que ela originally se juntou". Seus comentários estão alinhados com o próprio quadro de segurança pública da OpenAI, embora a empresa tenha se recusado a comentar sobre sua estratégia de alinhamento atual.

O tribunal também ouviu o testemunho da ex-membro do conselho Tasha McCauley, que descreveu um padrão de transparência limitada do CEO Sam Altman. McCauley relatou que Altman não informou o conselho sobre a decisão de lançar o ChatGPT publicamente e ocultou potenciais conflitos de interesse. Ela observou que o mandato sem fins lucrativos do conselho para supervisionar o braço com fins lucrativos foi "colocado em questão", erodindo a confiança nas informações fornecidas aos diretores.

A breve saída de Altman em 2023, desencadeada pela mesma controvérsia de implantação na Índia, ressurgiu na audiência. Na época, membros do conselho - incluindo o então cientista-chefe Ilya Sutskever e a CTO Mira Murati - expressaram preocupações sobre o estilo de gestão de Altman e as práticas de divulgação. A reversão do conselho, após os funcionários se mobilizarem em torno de Altman e a Microsoft intervir, deixou os membros dissidentes para renunciar, realçando ainda mais as fraturas de governança.

David Schizer, ex-decano da Faculdade de Direito de Columbia contratado pela equipe jurídica de Musk como testemunha especial, reforçou o argumento de segurança. Ele disse que a missão da OpenAI "destaca que uma parte fundamental de sua missão é a segurança e que eles vão priorizar a segurança sobre os lucros". Schizer enfatizou que qualquer regra de segurança que exija revisão deve ser aplicada consistentemente, sugerindo que o processo atual não atende a esses padrões.

Além da OpenAI, o caso levanta questões políticas mais amplas. McCauley argumentou que as falhas de governança interna em um laboratório de IA líder devem provocar uma supervisão governamental mais forte de sistemas de IA avançados, alertando que "se tudo depende de um CEO que toma essas decisões, e temos o bem público em jogo, isso é muito subótimo".

A ação judicial de Musk, portanto, faz mais do que visar uma única empresa; ela desafia o equilíbrio prevalecente entre a comercialização rápida e as salvaguardas éticas que muitos acreditam que devem governar o desenvolvimento de tecnologias de IA transformadoras.

#Elon Musk#OpenAI#segurança de IA#ação judicial#Sam Altman#Microsoft#GPT-4#regulação de IA#AGI#governança do conselho

Também disponível em: