Tribunal de Apelações Mantém Rótulo de Risco na Cadeia de Suprimentos da Anthropic

Appeals Court Keeps Anthropic Supply‑Chain Risk Label in Place

Pontos principais

  • The D.C. Circuit Court of Appeals upheld the Pentagon’s supply‑chain risk label on Anthropic.
  • The decision conflicts with a San Francisco district court order that removed the label last month.
  • Judges argued that lifting the label could hinder military operations during an ongoing conflict.
  • Anthropic claims the designation harms its business and that its Claude model is not fit for fully autonomous weapons.
  • Acting Attorney General Todd Blanche hailed the ruling as a win for military readiness.
  • Legal experts see the case as a test of executive authority over domestic tech firms.
  • Oral arguments before the D.C. Circuit are set for May 19.
  • Details on the DoD’s use of Claude and its shift to other AI vendors remain limited.

Um painel de três juízes do Tribunal de Apelações dos EUA para o Circuito de Colúmbia decidiu que a Anthropic, criadora do modelo de IA Claude, deve permanecer designada como um risco na cadeia de suprimentos para o Pentágono. A decisão contradiz uma ordem recente de um tribunal distrital de São Francisco que havia removido o rótulo, deixando o acesso do Exército às ferramentas da Anthropic em limbo enquanto os dois casos prosseguem em direção a julgamentos finais.

O Tribunal de Apelações dos EUA para o Circuito de Colúmbia emitiu uma ordem de suspensão na quarta-feira que preserva a designação de risco na cadeia de suprimentos do Pentágono sobre a Anthropic, a empresa por trás do sistema de IA Claude. O painel de apelação, em uma decisão de 2 a 1, disse que remover o rótulo colocaria em risco as operações militares durante um conflito em andamento, mesmo que a empresa possa sofrer danos financeiros.

A luta jurídica da Anthropic decorre de duas leis separadas que o Departamento de Defesa dos EUA usou para proibir a empresa de fornecer ferramentas de IA às forças armadas. Um juiz federal de São Francisco no mês passado encontrou que o DoD agiu de má-fé, citando a resistência da empresa às políticas de uso restritivo e sua crítica pública a essas limitações. Esse juiz ordenou a remoção do rótulo de risco, levando a administração Trump a restaurar o acesso ao Claude em todo o Pentágono e outras agências federais.

Em Washington, o tribunal de apelação se concentrou em uma disposição estatutária diferente, mas chegou à opinião oposta. Os juízes enfatizaram as pressões únicas da aquisição em tempos de guerra, observando que "conceder uma suspensão forçaria as forças armadas dos EUA a prolongar seus negócios com um fornecedor indesejado de serviços de IA críticos no meio de um conflito militar significativo em andamento". O painel reconheceu a perda potencial de receita da Anthropic, mas priorizou o julgamento do Departamento de Defesa sobre questões de segurança nacional.

O procurador-geral interino Todd Blanche elogiou a decisão no X, chamando-a de "uma vitória retumbante para a prontidão militar". Ele reiterou que o comandante-chefe e o Departamento de Guerra (como o Pentágono se refere a si mesmo sob a atual administração) devem reter acesso total a modelos de IA integrados a sistemas sensíveis.

A porta-voz da Anthropic, Danielle Cohen, expressou gratidão por o tribunal de Colúmbia ter reconhecido a urgência da questão e reafirmou a confiança da empresa de que os tribunais eventualmente considerarão as designações ilegais. A empresa argumenta que o rótulo custou contratos e que seu modelo Claude carece da precisão necessária para sistemas de armas totalmente autônomos, uma postura que atraiu críticas do Pentágono.

Especialistas jurídicos dizem que o caso testa a amplitude do poder executivo sobre empresas de tecnologia privadas, especialmente à medida que o Pentágono acelera a implantação de IA em seu conflito com o Irã. Alguns acadêmicos alertam que as ações do DoD podem sufocar o debate aberto entre pesquisadores de IA sobre desempenho e segurança do modelo.

Ambos os processos devem continuar por meses. O Circuito de Colúmbia ouvirá argumentos orais em 19 de maio, enquanto o caso de São Francisco prossegue em seu próprio cronograma. Detalhes sobre como o Departamento de Defesa usou o Claude ou a extensão de sua transição para alternativas da Google DeepMind, OpenAI ou outros fornecedores permanecem escassos.

À medida que as batalhas jurídicas se desenrolam, a Anthropic enfrenta incertezas sobre seu papel em iniciativas de IA federais. O resultado pode moldar como designações de risco na cadeia de suprimentos serão aplicadas a empresas de tecnologia domésticas no futuro, uma questão que paira sobre a indústria e os formuladores de políticas de segurança nacional.

#Anthropic#Claude#U.S. Department of Defense#supply chain risk#appeals court#AI policy#national security#legal battle#Pentagon#Trump administration

Também disponível em:

Tribunal de Apelações Mantém Rótulo de Risco na Cadeia de Suprimentos da Anthropic | AI News