Pesquisadores de IA Arquivam Breve Amicus Apoiando a Anthropic Contra a Designação de Risco na Cadeia de Suprimentos do Pentágono

Pontos principais
- Mais de 30 pesquisadores de IA da OpenAI e do Google apresentaram um breve amicus apoiando a Anthropic.
- O breve desafia a designação de risco na cadeia de suprimentos do Pentágono da Anthropic.
- Os signatários incluem o cientista-chefe da DeepMind, Jeff Dean, e vários pesquisadores sênior.
- O breve argumenta que a designação subverte a competitividade dos EUA em IA e enfraquece o debate.
- A Anthropic busca uma ordem de restrição temporária para manter contratos militares.
- O CEO da OpenAI, Sam Altman, criticou publicamente a decisão do Pentágono.
- A apresentação do breve destaca a importância das salvaguardas contratuais no desenvolvimento de IA.
- O caso pode influenciar futuras ações governamentais em relação a riscos na cadeia de suprimentos de IA.
Mais de 30 engenheiros e pesquisadores da OpenAI e do Google, incluindo o cientista-chefe da DeepMind, Jeff Dean, apresentaram um breve amicus apoiando a Anthropic em seu desafio legal à designação de risco na cadeia de suprimentos do Pentágono. O breve argumenta que a lista negra ameaça a competitividade dos EUA em inteligência artificial e enfraquece o debate sobre a segurança da IA. A Anthropic busca uma ordem de restrição temporária para continuar trabalhando com parceiros militares enquanto a ação judicial prossegue.
Contexto
A Anthropic, uma startup de inteligência artificial, processou o Departamento de Defesa dos EUA e outras agências federais após o Pentágono rotulá-la como um "risco na cadeia de suprimentos". A designação restringe a capacidade da Anthropic de colaborar com contratantes militares e entrou em vigor após as negociações entre a empresa e o Pentágono fracassarem. A Anthropic está buscando uma ordem de restrição temporária para manter suas parcerias militares enquanto a ação judicial avança.
Apresentação do Breve Amicus
Em resposta, mais de 30 pesquisadores e engenheiros de IA da OpenAI e do Google apresentaram um breve amicus apoiando a posição da Anthropic. Entre os signatários está o cientista-chefe da DeepMind, Jeff Dean, junto com os pesquisadores da DeepMind Zhengdong Wang, Alexander Matt Turner e Noah Siegel, e os pesquisadores da OpenAI Gabriel Wu, Pamela Mishkin e Roman Novak. O breve foi apresentado em caráter pessoal, e os signatários esclareceram que não representam as visões oficiais de seus empregadores.
Argumentos Principais no Breve
O breve sustenta que a decisão do Pentágono de incluir a Anthropic na lista negra "introduz uma imprevisibilidade em nossa indústria que subverte a inovação e a competitividade americanas" e "enfria o debate profissional sobre os benefícios e riscos dos sistemas de IA de fronteira". Argumenta que o Departamento de Defesa poderia simplesmente ter terminado o contrato da Anthropic se não quisesse mais ser vinculado por seus termos, em vez de impor uma etiqueta de risco na cadeia de suprimentos abrangente.
O breve também reconhece as linhas vermelhas declaradas pela Anthropic, que incluem proibições ao uso de sua IA para vigilância doméstica em massa e armas letais autônomas. Destaca que, na ausência de lei pública, salvaguardas contratuais e tecnológicas impostas por desenvolvedores de IA servem como proteções vitais contra uso catastrófico.
Reação da Indústria
)Vários líderes de IA questionaram publicamente a designação do Pentágono da Anthropic como um risco na cadeia de suprimentos. O CEO da OpenAI, Sam Altman, postou que aplicar a designação seria "muito ruim para nossa indústria e nosso país" e chamou a decisão de "muito ruim" do Departamento de Guerra, expressando esperança por uma reversão. À medida que a relação da Anthropic com o Pentágono azedou, a OpenAI rapidamente assinou seu próprio contrato com o Exército dos EUA, uma movimentação que alguns observadores criticaram como oportunista.
Implicações para o Desenvolvimento de IA e Segurança Nacional
A apresentação do breve destaca uma preocupação mais ampla dentro da comunidade de IA sobre ações governamentais imprevisíveis que poderiam impedir a inovação e a colaboração. Ao destacar a importância das salvaguardas contratuais, o breve sugere que acordos do setor privado podem desempenhar um papel crítico na gestão de riscos de IA quando os quadros legislativos são deficientes. O caso também levanta questões sobre como o governo dos EUA equilibra considerações de segurança nacional com a necessidade de manter uma vantagem competitiva em tecnologias avançadas.
Conclusão
O breve amicus representa um esforço coordenado por pesquisadores de IA líderes para defender o direito da Anthropic de continuar seu trabalho com parceiros militares, enquanto destaca as apostas mais amplas para a competitividade americana em inteligência artificial. O resultado da ação judicial da Anthropic e a resposta do governo podem estabelecer precedentes para como as designações de risco na cadeia de suprimentos são aplicadas a empresas de tecnologia emergentes no futuro.