Engenheiros da OpenAI e do Google Apoiam a Ação Judicial da Anthropic Contra o Pentágono

Pontos principais
- A Anthropic processou o Pentágono após ser rotulada como risco na cadeia de suprimentos por se recusar a permitir a vigilância em massa ou armas letais autônomas.
- Quase 40 engenheiros e pesquisadores da OpenAI e do Google apresentaram uma brief amicus em apoio à Anthropic.
- A brief argumenta que a designação de risco é uma retaliação imprópria que prejudica o interesse público.
- Os autores alertam que a integração de dados fragmentados pela IA pode criar um aparelho de vigilância em tempo real em todo o país.
- As armas autônomas são descritas como imprevisíveis em condições novas e propensas à alucinação.
- A brief pede salvaguardas técnicas ou restrições de uso para manter os humanos no loop de decisão.
- Os signatários enfatizam uma convicção compartilhada de que os riscos da IA exigem guardrails, apesar de visões políticas diversas.
A Anthropic processou o Departamento de Defesa após ser rotulada como risco na cadeia de suprimentos por se recusar a permitir a vigilância em massa nacional e armas letais autônomas. Horas depois, quase 40 engenheiros, pesquisadores e cientistas da OpenAI e do Google apresentaram uma brief amicus em apoio à Anthropic, alertando que a designação ameaça o interesse público e que as duas linhas vermelhas refletem riscos genuínos.
Desafio Legal da Anthropic
A Anthropic entrou com uma ação judicial contra o Departamento de Defesa após a agência designar a empresa como risco na cadeia de suprimentos. A designação, normalmente reservada para empresas estrangeiras consideradas uma ameaça à segurança nacional, foi aplicada porque a Anthropic se recusou a relaxar duas linhas vermelhas que proíbem o uso de sua tecnologia para vigilância em massa nacional e armas letais autônomas.
Resposta da Indústria
Dentro de horas após a apresentação da ação, quase 40 funcionários da OpenAI e do Google, incluindo figuras seniores, apresentaram uma brief amicus em apoio à causa da Anthropic. Os signatários se descreveram como engenheiros, pesquisadores, cientistas e outros profissionais empregados em laboratórios de inteligência artificial de ponta nos EUA.
A brief argumenta que o rótulo de risco na cadeia de suprimentos é uma retaliação imprópria que prejudica o interesse público. Ela destaca que as linhas vermelhas da Anthropic são fundamentadas em preocupações reais que exigem uma resposta.
Riscos da Vigilância em Massa Nacional
A brief observa que, embora os dados dos cidadãos americanos existam em muitas formas fragmentadas — câmeras de vigilância, dados de geolocalização, postagens em redes sociais, transações financeiras —, uma camada de IA que unifique esses fluxos pode criar um aparelho de vigilância em tempo real em todo o país. Os autores alertam que tal capacidade apresenta riscos profundos para a governança democrática, mesmo que utilizada de forma responsável.
Preocupações com Armas Letais Autônomas
Os autores destacam que as armas autônomas podem ser imprevisíveis em condições novas ou ambíguas, carecendo do julgamento nuances que os humanos fornecem. Eles também destacam o fenômeno da alucinação da IA, que pode obscurecer o raciocínio por trás da identificação de alvos, tornando essencial manter os humanos no loop antes de qualquer munição letal ser lançada.
Porque esses sistemas podem não distinguir confiavelmente alvos ou considerar efeitos colaterais, a brief pede salvaguardas técnicas ou restrições de uso para prevenir o deploy sem supervisão humana.
Voz Unificada Across Empresas
Embora os signatários venham de diferentes empresas e tenham visões políticas diversas, compartilham uma convicção de que os sistemas de IA de ponta apresentam riscos quando implantados para vigilância em massa ou armas letais autônomas. Eles instam o desenvolvimento de guardrails — seja técnico ou baseado em políticas — para abordar esses perigos.