Pentágono Declara Anthropic um Risco de Segurança Inaceitável

Pontos principais
- O Pentágono afirma que o acesso contínuo da Anthropic à infraestrutura de guerra criaria risco inaceitável.
- Uma provisão nos contratos de IA permite o uso para qualquer propósito legal; a Anthropic se recusou a aceitá-la.
- O departamento alertou que a Anthropic poderia desabilitar ou alterar seus modelos de IA durante operações se as "linhas vermelhas" corporativas forem cruzadas.
- A Anthropic processou para contestar uma designação de risco de cadeia de suprimentos após se recusar a certos usos de defesa.
- A empresa busca uma injunção preliminar para pausar a proibição enquanto contesta a designação.
- A petição sugere que a etiqueta poderia custar à Anthropic bilhões de dólares em receita.
- A Microsoft, a Google e a OpenAI apresentaram breves em apoio à Anthropic.
- O Presidente Trump ordenou que as agências federais parassem de usar a tecnologia da Anthropic.
O Departamento de Defesa argumentou que permitir que a Anthropic continue a ter acesso à sua infraestrutura de guerra introduziria um risco inaceitável às cadeias de suprimentos e à segurança nacional. Em uma petição judicial respondendo à ação da Anthropic sobre uma designação de risco de cadeia de suprimentos, o Pentágono citou preocupações de que a empresa poderia desabilitar ou alterar seus modelos de IA durante operações se as "linhas vermelhas" corporativas fossem cruzadas.
Preocupações de Segurança do Pentágono
O Departamento de Defesa sustentou que conceder à Anthropic acesso contínuo à sua infraestrutura de guerra "introduziria risco inaceitável" às suas cadeias de suprimentos, como detalhado em uma petição judicial respondendo à ação da empresa de IA. A petição explicou que o secretário do departamento, Pete Hegseth, havia incorporado uma provisão nos contratos de serviços de IA que permite à agência usar as tecnologias para qualquer propósito legal. A recusa da Anthropic em aceitar esses termos levantou dúvidas sobre sua adequação como "parceira confiável" para iniciativas altamente sensíveis.
O Pentágono alertou que os sistemas de IA são altamente vulneráveis à manipulação. Ele afirmou que a Anthropic poderia potencialmente desabilitar sua tecnologia ou alterar antecipadamente o comportamento de seu modelo antes ou durante operações de guerra em andamento se, a seu critério, a empresa sentisse que suas "linhas vermelhas" corporativas estavam sendo cruzadas. O departamento considerou esse cenário um "risco inaceitável à segurança nacional", referindo-se à agência como o Departamento de Guerra, o nome favorecido pela administração Trump.
Conflito Legal e Impacto Potencial
A Anthropic processou o governo para contestar a designação de risco de cadeia de suprimentos que recebeu após se recusar a permitir que seu modelo fosse usado para vigilância em massa e desenvolvimento de armas autônomas. A empresa busca uma injunção preliminar para pausar a proibição enquanto contesta a designação na justiça. A petição indicou que os clientes da Anthropic poderiam continuar trabalhando com a empresa em projetos não de defesa, mas a etiqueta poderia causar à empresa a perda de bilhões de dólares em receita.
Embora a petição não tenha esclarecido se a Anthropic ainda está buscando um novo acordo com o governo, o New York Times observou que a Microsoft, a Google e a OpenAI haviam apresentado breves amicus curiae em apoio à Anthropic. A petição também referenciou a ordem do Presidente Trump para que as agências federais parassem de usar a tecnologia da Anthropic, sublinhando a posição da administração sobre o risco de segurança percebido.