Disputa Contratual entre o Pentágono e a Anthropic Destaca Lacuna na Governança de IA

Pontos principais
- O Pentágono buscou uso irrestrito do modelo de IA Claude da Anthropic para todos os fins legais.
- A Anthropic exigiu limites para prevenir vigilância doméstica e armas totalmente autônomas.
- A administração rotulou a Anthropic como um risco na cadeia de suprimentos, provocando uma ação judicial.
- Especialistas afirmam que o conflito revela um vazio regulatório na governança de IA.
- O Pentágono mudou para um novo contrato com a OpenAI, que prometeu salvaguardas mais fortes.
- A capacidade da IA de fundir dados dispersos levanta sérias preocupações com a privacidade.
- Os modelos de IA atuais são considerados não confiáveis para sistemas de armas totalmente autônomas.
- O Congresso é instado a estabelecer regras estatutárias claras para a IA na segurança nacional.
- A designação de risco na cadeia de suprimentos pode dissuadir outras empresas de IA de impor limites de segurança.
Um conflito entre o Departamento de Defesa dos EUA e a desenvolvedora de IA Anthropic sobre o uso do modelo Claude expôs um vazio regulatório. O Pentágono buscou acesso irrestrito para "todos os fins legais", enquanto a Anthropic estabeleceu limites contra vigilância doméstica e armas totalmente autônomas. Após a Anthropic se recusar, a administração rotulou a empresa como um risco na cadeia de suprimentos, provocando uma ação judicial. Especialistas afirmam que o episódio destaca a necessidade de regras claras do Congresso sobre IA na segurança nacional, à medida que o militar se volta para a OpenAI e o debate mais amplo sobre vigilância e armas impulsionadas por IA se intensifica.
Contexto
O Departamento de Defesa dos EUA entrou em um contrato com a Anthropic, criadora do sistema de inteligência artificial Claude, para incorporar a tecnologia em operações de defesa. O pedido do Pentágono foi para a capacidade de usar o Claude para "todos os fins legais", uma formulação que implicava uma implantação ampla e irrestrita.
Disputa sobre o Uso de IA
A Anthropic resistiu, insistindo em limites que impediriam o modelo de ser empregado para vigilância doméstica em massa ou para sistemas de armas totalmente autônomas. Quando a empresa se recusou a renunciar a essas salvaguardas, o Presidente Donald Trump e o Secretário de Defesa Pete Hegseth anunciaram que a Anthropic seria designada como um "risco na cadeia de suprimentos", efetivamente barrando seus produtos de contratos de defesa.
A Anthropic respondeu entrando com uma ação judicial federal, chamando a designação de ataque sem precedentes e ilegal aos direitos de livre expressão da empresa. O Pentágono argumentou que a legislação atual não permite os usos de vigilância contestados e que não tem planos de empregar a ferramenta para armas autônomas, embora especialistas notem que a orientação legal permanece ambígua.
Implicações Legais e Políticas
A disputa iluminou uma lacuna de governança: as leis e regulamentos existentes não acompanharam as capacidades da IA moderna. Acadêmicos de privacidade e tecnologia descreveram o episódio como um alerta para o Congresso estabelecer linhas vermelhas estatutárias que definam aplicações de IA permissíveis em contextos de segurança nacional.
Após o conflito, o Pentágono garantiu um novo acordo com a OpenAI. Embora o acordo com a OpenAI contenha menos restrições explícitas, a liderança da empresa comprometeu-se a fortalecer as salvaguardas, e o CEO Sam Altman observou publicamente que o Pentágono afirmou que a tecnologia não seria usada por agências de inteligência.
Reações de Especialistas
Analistas destacaram o efeito transformador da IA na vigilância, enfatizando como modelos poderosos podem amalgamar dados dispersos e inócuos em perfis pessoais detalhados sem mandado. O CEO da Anthropic, Dario Amodei, alertou que tais capacidades apresentam riscos significativos à privacidade.
Quanto à weaponização, a Anthropic e outros especialistas em IA argumentaram que os modelos de fronteira atuais carecem da confiabilidade necessária para armas totalmente autônomas. Eles defenderam a inclusão de um "ser humano no loop" para garantir a responsabilidade, uma postura que o Pentágono parece resistir.
Acadêmicos de direito enfatizaram que líderes privados não eleitos não podem preencher o vazio regulatório deixado pelo Congresso. Eles pediram regras claras e democraticamente promulgadas que governem o uso de IA em vigilância e sistemas letais.
Perspectiva Futura
A designação do governo da Anthropic como um risco na cadeia de suprimentos pode ter um efeito dissuasório sobre outras empresas de IA, sinalizando que o Estado pode retaliar contra empresas que impõem limites de segurança. A Anthropic esclareceu que a designação se aplica apenas a contratos diretos do Departamento de Guerra, não a todos os clientes.
Apesar da disputa, o militar continua a empregar as ferramentas da Anthropic em operações em andamento, incluindo o conflito atual no Irã. A empresa afirmou que continuará a fornecer seus modelos a um custo nominal desde que permaneça autorizada.
No geral, o episódio destaca a necessidade urgente de ação congressional abrangente para estabelecer limites duráveis e transparentes para a implantação de IA em contextos de segurança nacional, equilibrando inovação com supervisão democrática e proteção dos direitos civis.