Anthropic Processa Governo dos EUA por Designação de Risco na Cadeia de Suprimentos

Pontos principais
- A Anthropic processou o governo dos EUA por uma designação de risco na cadeia de suprimentos.
- A empresa alega violações dos direitos da Primeira e Quinta Emendas.
- A designação foi emitida pela administração Trump e exigiu que as agências parassem de usar a tecnologia da Anthropic dentro de seis meses.
- A Administração de Serviços Gerais terminou seu contrato com a Anthropic, encerrando seus serviços para os ramos federais.
- Parceiros importantes, incluindo a Microsoft, continuam colaborações limitadas enquanto separam o trabalho relacionado ao Pentágono.
- A ação judicial desafia a autoridade do executivo em rotular uma empresa de IA nacional como um risco à segurança.
A Anthropic entrou com uma ação judicial em um tribunal distrital da Califórnia, alegando que o governo dos EUA rotulou ilegalmente a empresa de IA como um risco na cadeia de suprimentos e ordenou que todas as agências federais parassem de usar sua tecnologia. A empresa afirma que a designação, emitida pela administração Trump, viola seus direitos da Primeira e Quinta Emendas e excede a autoridade executiva. A ação segue uma série de cortes de agências, incluindo a Administração de Serviços Gerais, que terminou seu contrato, e uma controvérsia mais ampla sobre o uso do Pentágono dos modelos de IA da Anthropic. A Anthropic diz que desafiará a designação na justiça enquanto seus principais parceiros continuam colaborações limitadas.
Contexto
A Anthropic, um dos principais desenvolvedores privados de inteligência artificial, foi designada como um risco na cadeia de suprimentos pelo governo dos EUA. A designação, normalmente aplicada a empresas estrangeiras consideradas ameaças à cibersegurança, foi incomum para uma empresa nacional. Após a designação, a administração Trump ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic dentro de seis meses. A medida despertou preocupações bipartidárias sobre o impacto do desacordo político na capacidade de uma empresa operar.
Ação Judicial
Em resposta, a Anthropic entrou com uma ação judicial em um tribunal distrital da Califórnia. A queixa alega que as ações do governo punem a empresa por sua fala protegida sobre segurança de IA e os limites das armas autônomas, violando a Primeira Emenda. Ela também afirma que a designação infringe os direitos da Quinta Emenda da Anthropic e excede a autoridade do executivo. A ação busca derrubar a etiqueta de risco na cadeia de suprimentos e restaurar a capacidade da empresa de contratar com agências federais.
Resposta do Governo e das Agências
Desde a designação, várias agências paralisaram o uso dos serviços da Anthropic. A Administração de Serviços Gerais terminou seu contrato OneGov, encerrando a disponibilidade da Anthropic para os três ramos do governo federal. O Departamento do Tesouro, o Departamento de Estado e outras agências também indicaram planos para parar de usar a tecnologia da empresa. O Pentágono se recusou a comentar sobre a ação judicial.
Reações Corporativas
Clientes importantes, como a Microsoft, afirmaram sua continuidade de parceria com a Anthropic, mas estão estabelecendo salvaguardas para separar o trabalho relacionado ao Pentágono de outras colaborações. A Anthropic mantém que desafiará a designação na justiça e continuará seu foco no desenvolvimento responsável de tecnologia de IA emergente.
Implicações
O caso destaca tensões entre as preocupações de segurança do governo e os direitos dos desenvolvedores de IA privados. Ele levanta questões sobre o escopo do poder executivo em rotular empresas nacionais como riscos à segurança nacional e o possível efeito dissuasório sobre a fala relacionada à segurança de IA. O resultado pode estabelecer precedente para como as empresas de IA lidam com contratos federais e como os desacordos de política são gerenciados no setor de tecnologia.