Anthropic Recusa Demanda do Pentágono para Remover Guardrails de IA

Pontos principais
- O secretário de Defesa, Pete Hegseth, estabeleceu um prazo de 17h01 de sexta-feira para a Anthropic remover as salvaguardas de segurança do Claude.
- O Pentágono ameaçou cancelar um contrato de US$ 200 milhões e rotular a Anthropic como risco na cadeia de suprimentos.
- O CEO da Anthropic, Dario Amodei, disse que a empresa não pode, em boa consciência, cumprir com a demanda e manterá as salvaguardas em vigor.
- A Anthropic ofereceu apoiar uma transição suave para outro fornecedor de IA, caso o DoD decida desligar a empresa.
- A demanda permitiria que o Claude fosse usado para vigilância em massa e armas autônomas.
- O Claude é atualmente o único modelo de IA aprovado para as tarefas militares mais sensíveis.
- O DoD está avaliando alternativas, como Grok, Gemini do Google e OpenAI.
- O impasse destaca a tensão entre a segurança da IA e as demandas do setor de defesa.
O secretário de Defesa, Pete Hegseth, deu à Anthropic um prazo até às 17h01 de sexta-feira para remover as salvaguardas de segurança do sistema de IA Claude, ameaçando cancelar um contrato de US$ 200 milhões e rotular a empresa como risco na cadeia de suprimentos. O CEO Dario Amodei respondeu que a Anthropic não pode, em boa consciência, cumprir com a demanda, insistindo em manter as salvaguardas enquanto permanece disposta a apoiar o militar.
Fundo
O Departamento de Defesa dos EUA, liderado pelo secretário de Defesa Pete Hegseth, exigiu que a Anthropic tornasse seu modelo de IA Claude disponível para "todos os fins legais", incluindo explicitamente a vigilância em massa e o desenvolvimento de armas autônomas que possam operar sem supervisão humana. O departamento alertou que a falha em cumprir poderia resultar no cancelamento de um contrato de US$ 200 milhões e na designação da Anthropic como "risco na cadeia de suprimentos", um rótulo tradicionalmente reservado para empresas de nações adversárias.
Resposta da Anthropic
O CEO da Anthropic, Dario Amodei, publicou um blog afirmando que a empresa não pode, em boa consciência, remover as salvaguardas de segurança que impedem que o Claude seja usado das maneiras mencionadas. Amodei enfatizou uma "forte preferência" por continuar a servir ao Departamento e aos seus combatentes, enquanto retém as duas salvaguardas solicitadas. Ele também se comprometeu a facilitar uma transição suave para outro fornecedor, caso o Pentágono decida desligar a Anthropic, visando evitar a interrupção do planejamento militar em andamento e missões críticas.
Contra-ataque do Pentágono
Em reação, o subsecretário de Defesa, Emil Michael, acusou Amodei de querer "nada mais do que tentar controlar pessoalmente o militar dos EUA" e sugeriu que o CEO estava colocando a segurança nacional em risco. O Pentágono estabeleceu um prazo firme de 17h01 de sexta-feira para a Anthropic aceitar os termos, solicitando simultaneamente uma avaliação de sua dependência do Claude como um passo inicial para potencialmente rotular a empresa como risco na cadeia de suprimentos.
Implicações para o Uso de IA no Militar
O Claude tem sido o único modelo de IA aprovado para as tarefas militares mais sensíveis, incluindo análise de inteligência, desenvolvimento de armas e operações de batalha. Relatórios indicam que o Claude foi usado na incursão na Venezuela que exfiltrou o presidente Nicolás Maduro e sua esposa. A pressão do Departamento para expandir os usos permitidos do Claude para vigilância em massa e armas autônomas marcaria uma escalada significativa no escopo da implantação de IA nas operações de defesa.
Alternativas Potenciais
O DoD está relatado como avaliando outros fornecedores de IA, como Grok, Gemini do Google e OpenAI, como possíveis substitutos, caso a Anthropic seja desligada. No entanto, a transição para longe do Claude pode se provar complexa, dado seu único integração em fluxos de trabalho críticos de defesa.
Contexto Mais Amplo
O impasse destaca a tensão entre os defensores da segurança da IA e as agências governamentais que buscam capacidades de IA mais amplas para a segurança nacional. Enquanto as empresas de IA enfrentam críticas por possíveis danos aos usuários, a perspectiva de vigilância em massa e armas autônomas eleva as apostas dramaticamente. A recusa da Anthropic testa sua afirmação de ser a empresa de IA mais segura, especialmente após recentemente abandonar seu compromisso de segurança de bandeira.
Olhando para o Futuro
Os próximos passos dependem da disposição do Pentágono em seguir com suas ameaças. O cancelamento do contrato ou a designação de risco na cadeia de suprimentos poderia ter sérias repercussões financeiras e operacionais para a Anthropic, influenciando também como outras empresas de IA negociam requisitos de segurança com clientes governamentais.