Juíza Considera Movimento do Pentágono para Rotular a Anthropic como Risco na Cadeia de Suprimentos como 'Tentativa de Paralisar' a Empresa

Pontos principais
- A juíza do Tribunal Distrital dos EUA, Rita Lin, considera a etiqueta de risco na cadeia de suprimentos do Pentágono sobre a Anthropic como uma 'tentativa de paralisar' a empresa.
- A Anthropic processou, alegando que a designação é retaliação ilegal por buscar limites para o uso militar de seu sistema de IA Claude.
- O Departamento de Defesa defende a etiqueta como uma medida de segurança, citando preocupações sobre a confiabilidade da IA em momentos críticos.
- O secretário de Defesa, Pete Hegseth, anunciou uma proibição geral a contratantes que trabalham com a Anthropic, embora a autoridade legal para a proibição seja incerta.
- O caso levanta questões sobre a Primeira Emenda e um debate mais amplo sobre o uso de IA nas forças armadas.
- O Pentágono planeja substituir a tecnologia da Anthropic por alternativas da Google, OpenAI e xAI.
- A juíza Lin pode conceder uma injunção temporária para pausar a designação pendente de uma determinação completa sobre os méritos do caso.
- Um apelo relacionado está pendente em um tribunal de apelações federal, com uma decisão esperada em breve.
Durante uma audiência, a juíza do Tribunal Distrital dos EUA, Rita Lin, questionou a decisão do Departamento de Defesa de rotular a desenvolvedora de IA Anthropic como risco na cadeia de suprimentos, descrevendo-a como uma aparente tentativa de paralisar a empresa após ela buscar limites para o uso militar de sua ferramenta Claude. A Anthropic entrou com processos alegando retaliação ilegal, e a juíza está considerando uma injunção temporária que poderia pausar a designação.
Fundo do Disputa
A Anthropic, criadora do sistema de inteligência artificial Claude, tomou medidas legais contra o Departamento de Defesa dos EUA após o Pentágono designar a empresa como risco na cadeia de suprimentos. A etiqueta foi aplicada após a Anthropic pressionar por restrições sobre como suas ferramentas de IA poderiam ser empregadas pelo militar. A empresa argumenta que a designação é retaliação por sua fiscalização pública de uma disputa contratual, potencialmente violando proteções da Primeira Emenda.
Scrutínio Judicial
Durante uma audiência no tribunal, a juíza Rita Lin expressou preocupação de que a ação do Pentágono se assemelhasse a uma tentativa de paralisar a Anthropic. Ela notou que a autoridade de risco na cadeia de suprimentos é normalmente reservada para adversários estrangeiros, terroristas e outros atores hostis, e questionou se a designação foi apropriada para preocupações genuínas de segurança nacional. A juíza Lin indicou que poderia emitir uma ordem temporária para pausar a designação apenas se encontrar que a Anthropic tem probabilidade de sucesso nos méritos de seu caso.
Posição do Governo
O Departamento de Defesa, se referindo a si mesmo como Departamento de Guerra, defendeu sua decisão afirmando que as ferramentas de IA da Anthropic não podiam ser confiáveis em momentos críticos. Um advogado da administração Trump, Eric Hamilton, argumentou que o departamento seguiu os procedimentos adequados e que a avaliação de segurança não deve ser questionada. O Pentágono também anunciou planos para substituir a tecnologia da Anthropic por alternativas da Google, OpenAI e xAI, e alegou ter salvaguardas para prevenir qualquer sabotagem durante a transição.
Restrições de Contratantes e Autoridade Legal
O secretário de Defesa, Pete Hegseth, postou uma declaração indicando que qualquer contratante, fornecedor ou parceiro que faz negócios com o militar dos EUA estava proibido de atividade comercial com a Anthropic. No entanto, durante a audiência, Hamilton admitiu que Hegseth não tem autoridade legal para impor uma proibição geral a contratantes para trabalhos não relacionados ao Departamento de Defesa. Quando perguntado por que Hegseth fez a declaração, Hamilton disse que não sabia.
Implicações para a IA no Militar
O caso despertou uma conversa pública mais ampla sobre o papel da inteligência artificial nas forças armadas e o grau de deferência que as empresas de Silicon Valley devem dar às determinações do governo sobre a implantação de tecnologia. Críticos argumentam que a abordagem do Pentágono pode estabelecer um precedente para medidas punitivas contra empresas que levantam preocupações sobre aplicações militares de IA.
Próximos Passos
A juíza Lin deve emitir uma decisão sobre a injunção temporária nos próximos dias. Um apelo relacionado também está pendente em um tribunal de apelações federal em Washington, D.C., com uma decisão esperada em breve. O resultado moldará tanto a relação da Anthropic com o governo quanto o panorama mais amplo da aquisição de IA para fins de segurança nacional.