Pesquisadores de IA Arquivam Breve Amicus Apoiando a Anthropic Contra a Designação de Risco na Cadeia de Suprimentos do Pentágono

AI Researchers File Amicus Brief Supporting Anthropic Against Pentagon Supply-Chain Risk Designation

Pontos principais

  • Mais de 30 pesquisadores de IA da OpenAI e do Google apresentaram um breve amicus apoiando a Anthropic.
  • O breve desafia a designação de risco na cadeia de suprimentos do Pentágono da Anthropic.
  • Os signatários incluem o cientista-chefe da DeepMind, Jeff Dean, e vários pesquisadores sênior.
  • O breve argumenta que a designação subverte a competitividade dos EUA em IA e enfraquece o debate.
  • A Anthropic busca uma ordem de restrição temporária para manter contratos militares.
  • O CEO da OpenAI, Sam Altman, criticou publicamente a decisão do Pentágono.
  • A apresentação do breve destaca a importância das salvaguardas contratuais no desenvolvimento de IA.
  • O caso pode influenciar futuras ações governamentais em relação a riscos na cadeia de suprimentos de IA.

Mais de 30 engenheiros e pesquisadores da OpenAI e do Google, incluindo o cientista-chefe da DeepMind, Jeff Dean, apresentaram um breve amicus apoiando a Anthropic em seu desafio legal à designação de risco na cadeia de suprimentos do Pentágono. O breve argumenta que a lista negra ameaça a competitividade dos EUA em inteligência artificial e enfraquece o debate sobre a segurança da IA. A Anthropic busca uma ordem de restrição temporária para continuar trabalhando com parceiros militares enquanto a ação judicial prossegue.

Contexto

A Anthropic, uma startup de inteligência artificial, processou o Departamento de Defesa dos EUA e outras agências federais após o Pentágono rotulá-la como um "risco na cadeia de suprimentos". A designação restringe a capacidade da Anthropic de colaborar com contratantes militares e entrou em vigor após as negociações entre a empresa e o Pentágono fracassarem. A Anthropic está buscando uma ordem de restrição temporária para manter suas parcerias militares enquanto a ação judicial avança.

Apresentação do Breve Amicus

Em resposta, mais de 30 pesquisadores e engenheiros de IA da OpenAI e do Google apresentaram um breve amicus apoiando a posição da Anthropic. Entre os signatários está o cientista-chefe da DeepMind, Jeff Dean, junto com os pesquisadores da DeepMind Zhengdong Wang, Alexander Matt Turner e Noah Siegel, e os pesquisadores da OpenAI Gabriel Wu, Pamela Mishkin e Roman Novak. O breve foi apresentado em caráter pessoal, e os signatários esclareceram que não representam as visões oficiais de seus empregadores.

Argumentos Principais no Breve

O breve sustenta que a decisão do Pentágono de incluir a Anthropic na lista negra "introduz uma imprevisibilidade em nossa indústria que subverte a inovação e a competitividade americanas" e "enfria o debate profissional sobre os benefícios e riscos dos sistemas de IA de fronteira". Argumenta que o Departamento de Defesa poderia simplesmente ter terminado o contrato da Anthropic se não quisesse mais ser vinculado por seus termos, em vez de impor uma etiqueta de risco na cadeia de suprimentos abrangente.

O breve também reconhece as linhas vermelhas declaradas pela Anthropic, que incluem proibições ao uso de sua IA para vigilância doméstica em massa e armas letais autônomas. Destaca que, na ausência de lei pública, salvaguardas contratuais e tecnológicas impostas por desenvolvedores de IA servem como proteções vitais contra uso catastrófico.

Reação da Indústria

)Vários líderes de IA questionaram publicamente a designação do Pentágono da Anthropic como um risco na cadeia de suprimentos. O CEO da OpenAI, Sam Altman, postou que aplicar a designação seria "muito ruim para nossa indústria e nosso país" e chamou a decisão de "muito ruim" do Departamento de Guerra, expressando esperança por uma reversão. À medida que a relação da Anthropic com o Pentágono azedou, a OpenAI rapidamente assinou seu próprio contrato com o Exército dos EUA, uma movimentação que alguns observadores criticaram como oportunista.

Implicações para o Desenvolvimento de IA e Segurança Nacional

A apresentação do breve destaca uma preocupação mais ampla dentro da comunidade de IA sobre ações governamentais imprevisíveis que poderiam impedir a inovação e a colaboração. Ao destacar a importância das salvaguardas contratuais, o breve sugere que acordos do setor privado podem desempenhar um papel crítico na gestão de riscos de IA quando os quadros legislativos são deficientes. O caso também levanta questões sobre como o governo dos EUA equilibra considerações de segurança nacional com a necessidade de manter uma vantagem competitiva em tecnologias avançadas.

Conclusão

O breve amicus representa um esforço coordenado por pesquisadores de IA líderes para defender o direito da Anthropic de continuar seu trabalho com parceiros militares, enquanto destaca as apostas mais amplas para a competitividade americana em inteligência artificial. O resultado da ação judicial da Anthropic e a resposta do governo podem estabelecer precedentes para como as designações de risco na cadeia de suprimentos são aplicadas a empresas de tecnologia emergentes no futuro.

#inteligência artificial#pesquisa de IA#Anthropic#Pentágono#risco na cadeia de suprimentos#breve legal#OpenAI#Google#contratos militares#competitividade da indústria

Também disponível em: