Pentágono Designa Anthropic como Risco na Cadeia de Suprimentos

Pontos principais
- O Departamento de Guerra dos EUA designa a Anthropic e seus modelos Claude como risco na cadeia de suprimentos, a primeira ação desse tipo contra uma empresa nacional.
- Os contratantes de defesa devem agora certificar que não usam o Claude em trabalhos do Pentágono sob a lei 10 USC 3252.
- A Anthropic buscou garantias de que sua tecnologia não seria usada para vigilância doméstica em massa ou armas totalmente autônomas.
- O Pentágono argumentou que as leis existentes já proíbem esses usos, tornando limites contratuais desnecessários.
- O CEO da Anthropic, Dario Amodei, anunciou planos para contestar a designação na justiça.
- Relatórios indicam que o Claude continua a ser usado em operações militares via sistema Maven da Palantir.
- O presidente Trump ordenou a paralisação da tecnologia da Anthropic em todas as agências federais.
- A resposta da indústria está dividida, com petições de funcionários apoiando a Anthropic e Elon Musk criticando a empresa.
- A OpenAI garantiu um acordo separado com o Pentágono que permite o uso de seus modelos para "todos os fins legais".
- A ação estabelece um precedente para como as empresas de IA nacionais podem ser tratadas sob regulamentações de risco na cadeia de suprimentos.
O Departamento de Guerra dos EUA, pela primeira vez, rotulou a empresa de IA Anthropic, sediada em San Francisco, e seus modelos Claude como risco na cadeia de suprimentos, forçando os contratantes de defesa a certificar que não utilizam a tecnologia. A Anthropic objetou, citando preocupações sobre vigilância doméstica em massa e armas totalmente autônomas, e anunciou planos para contestar a designação na justiça.
Pentágono Toma Ação sem Precedentes Contra Empresa de IA Nacional
O Departamento de Guerra dos EUA anunciou a designação de risco na cadeia de suprimentos para a Anthropic, a empresa de IA de San Francisco por trás dos modelos Claude. Isso marca a primeira aplicação da designação a uma empresa americana, um status previamente reservado para adversários estrangeiros, como a Huawei da China. Sob a lei 10 USC 3252, a designação obriga os fornecedores e contratantes de defesa a certificar que não empregam os modelos Claude da Anthropic em qualquer trabalho para o Pentágono.
A Anthropic entrou em negociações com o Departamento de Guerra em busca de garantias escritas de que sua tecnologia não seria usada para "vigilância doméstica em massa de americanos" ou "armas totalmente autônomas" sem envolvimento humano nas decisões de alvo. A empresa manteve que esses limites eram razoáveis para qualquer implantação de IA, não apenas a sua própria. O Pentágono contrapôs que as leis existentes já proíbem a vigilância em massa e que a política interna do Departamento de Defesa restringe armas totalmente autônomas, argumentando que limites contratuais eram desnecessários.
Quando as negociações terminaram em 5 de março de 2026, o Departamento de Guerra informou formalmente a Anthropic de que a empresa e seus produtos foram considerados um risco na cadeia de suprimentos, com efeito imediato. O CEO da Anthropic, Dario Amodei, declarou que a empresa contestaria a designação na justiça, afirmando que a ação não é "legalmente sólida". Ele também observou que a designação não pode afetar os clientes comerciais da Anthropic ou outras agências governamentais, apenas seu uso em contratos do Departamento de Guerra.
Contradições e Uso Contínuo
Apesar da lista negra, relatórios indicaram que o Claude permaneceu em uso ativo pelo militar no Irã por meio do sistema Maven Smart da Palantir, que integra o Claude para gerenciamento de dados em contextos operacionais. O presidente Donald Trump ordenou que as agências federais parassem de usar a tecnologia da Anthropic, embora o impacto nas implantações de terceiros, como a da Palantir, fosse incerto.
Reação da Indústria e Acordos Competitivos
A indústria de tecnologia respondeu com uma posição dividida. Centenas de funcionários do Google e da OpenAI assinaram uma carta aberta apoiando a Anthropic, enquanto Elon Musk apoiou a administração Trump, alegando que a Anthropic "odeia a civilização ocidental". A OpenAI, em contraste, anunciou um acordo separado com o Departamento de Guerra que permite que o militar use os modelos da OpenAI para "todos os fins legais", linguagem descrita por alguns funcionários da OpenAI como deliberadamente ambígua.
Dean Ball, um ex-conselheiro de IA da Casa Branca de Trump, criticou a designação de risco na cadeia de suprimentos como um "sussurro de morte" da coerência estratégica americana, argumentando que tratar uma empresa nacional pior do que um adversário estrangeiro reflete "tribalismo brutamontes".
Perspectiva Futura
A Anthropic indicou disposição para desescalar e buscar um acordo que funcione para ambas as partes, e a Bloomberg relatou que as negociações haviam sido reabertas silenciosamente, mesmo enquanto a designação formal foi anunciada. O desafio legal pendente testará a interpretação do governo sobre a provisão de risco na cadeia de suprimentos contra a leitura da Anthropic de que se aplica apenas a contratos do Departamento de Guerra.
A designação estabelece um precedente, marcando a primeira vez que uma empresa de IA americana construída sobre princípios de IA responsável foi classificada ao lado de um adversário estrangeiro pelo próprio governo que ela buscou servir.