Anthropic Recusa Demanda do Pentágono para Remover Guardrails de IA

Anthropic Rejects Pentagon Demand to Remove AI Guardrails

Pontos principais

  • O secretário de Defesa, Pete Hegseth, estabeleceu um prazo de 17h01 de sexta-feira para a Anthropic remover as salvaguardas de segurança do Claude.
  • O Pentágono ameaçou cancelar um contrato de US$ 200 milhões e rotular a Anthropic como risco na cadeia de suprimentos.
  • O CEO da Anthropic, Dario Amodei, disse que a empresa não pode, em boa consciência, cumprir com a demanda e manterá as salvaguardas em vigor.
  • A Anthropic ofereceu apoiar uma transição suave para outro fornecedor de IA, caso o DoD decida desligar a empresa.
  • A demanda permitiria que o Claude fosse usado para vigilância em massa e armas autônomas.
  • O Claude é atualmente o único modelo de IA aprovado para as tarefas militares mais sensíveis.
  • O DoD está avaliando alternativas, como Grok, Gemini do Google e OpenAI.
  • O impasse destaca a tensão entre a segurança da IA e as demandas do setor de defesa.

O secretário de Defesa, Pete Hegseth, deu à Anthropic um prazo até às 17h01 de sexta-feira para remover as salvaguardas de segurança do sistema de IA Claude, ameaçando cancelar um contrato de US$ 200 milhões e rotular a empresa como risco na cadeia de suprimentos. O CEO Dario Amodei respondeu que a Anthropic não pode, em boa consciência, cumprir com a demanda, insistindo em manter as salvaguardas enquanto permanece disposta a apoiar o militar.

Fundo

O Departamento de Defesa dos EUA, liderado pelo secretário de Defesa Pete Hegseth, exigiu que a Anthropic tornasse seu modelo de IA Claude disponível para "todos os fins legais", incluindo explicitamente a vigilância em massa e o desenvolvimento de armas autônomas que possam operar sem supervisão humana. O departamento alertou que a falha em cumprir poderia resultar no cancelamento de um contrato de US$ 200 milhões e na designação da Anthropic como "risco na cadeia de suprimentos", um rótulo tradicionalmente reservado para empresas de nações adversárias.

Resposta da Anthropic

O CEO da Anthropic, Dario Amodei, publicou um blog afirmando que a empresa não pode, em boa consciência, remover as salvaguardas de segurança que impedem que o Claude seja usado das maneiras mencionadas. Amodei enfatizou uma "forte preferência" por continuar a servir ao Departamento e aos seus combatentes, enquanto retém as duas salvaguardas solicitadas. Ele também se comprometeu a facilitar uma transição suave para outro fornecedor, caso o Pentágono decida desligar a Anthropic, visando evitar a interrupção do planejamento militar em andamento e missões críticas.

Contra-ataque do Pentágono

Em reação, o subsecretário de Defesa, Emil Michael, acusou Amodei de querer "nada mais do que tentar controlar pessoalmente o militar dos EUA" e sugeriu que o CEO estava colocando a segurança nacional em risco. O Pentágono estabeleceu um prazo firme de 17h01 de sexta-feira para a Anthropic aceitar os termos, solicitando simultaneamente uma avaliação de sua dependência do Claude como um passo inicial para potencialmente rotular a empresa como risco na cadeia de suprimentos.

Implicações para o Uso de IA no Militar

O Claude tem sido o único modelo de IA aprovado para as tarefas militares mais sensíveis, incluindo análise de inteligência, desenvolvimento de armas e operações de batalha. Relatórios indicam que o Claude foi usado na incursão na Venezuela que exfiltrou o presidente Nicolás Maduro e sua esposa. A pressão do Departamento para expandir os usos permitidos do Claude para vigilância em massa e armas autônomas marcaria uma escalada significativa no escopo da implantação de IA nas operações de defesa.

Alternativas Potenciais

O DoD está relatado como avaliando outros fornecedores de IA, como Grok, Gemini do Google e OpenAI, como possíveis substitutos, caso a Anthropic seja desligada. No entanto, a transição para longe do Claude pode se provar complexa, dado seu único integração em fluxos de trabalho críticos de defesa.

Contexto Mais Amplo

O impasse destaca a tensão entre os defensores da segurança da IA e as agências governamentais que buscam capacidades de IA mais amplas para a segurança nacional. Enquanto as empresas de IA enfrentam críticas por possíveis danos aos usuários, a perspectiva de vigilância em massa e armas autônomas eleva as apostas dramaticamente. A recusa da Anthropic testa sua afirmação de ser a empresa de IA mais segura, especialmente após recentemente abandonar seu compromisso de segurança de bandeira.

Olhando para o Futuro

Os próximos passos dependem da disposição do Pentágono em seguir com suas ameaças. O cancelamento do contrato ou a designação de risco na cadeia de suprimentos poderia ter sérias repercussões financeiras e operacionais para a Anthropic, influenciando também como outras empresas de IA negociam requisitos de segurança com clientes governamentais.

#Inteligência Artificial#Departamento de Defesa#Segurança da IA#Contratos Governamentais#Risco na Cadeia de Suprimentos#Anthropic#Claude#IA Militar#Armas Autônomas#Vigilância em Massa#Política de Tecnologia

Também disponível em: