Pentágono e Anthropic Entram em Conflito sobre Uso Militar do Claude AI

Pontos principais
- Pentágono busca uso militar irrestrito de tecnologias de IA de grandes empresas.
- Anthropic é a mais resistente, enfatizando limites em armas autônomas e vigilância.
- O departamento ameaça encerrar o contrato de US$ 200 milhões da Anthropic devido a desacordos sobre uso.
- Modelos Claude foram supostamente utilizados em uma operação dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro.
- Pelo menos uma outra empresa de IA concordou com os termos do Pentágono, com as demais mostrando flexibilidade.
- Anthropic afirma que não discutiu operações militares específicas e se concentra em limites de política.
O Pentágono está pressionando as empresas de IA para permitir que o exército dos EUA utilize suas tecnologias para todos os fins legais, mas a Anthropic se tornou a mais resistente. O departamento está ameaçando encerrar seu contrato de US$ 200 milhões com a empresa devido a desacordos sobre como os modelos Claude são utilizados, incluindo uma suposta implantação em uma operação para capturar o ex-presidente venezuelano Nicolás Maduro. Enquanto outras empresas mostram flexibilidade, a Anthropic se concentra em limites rígidos em torno de armas autônomas e vigilância em massa.
Fundo
O Departamento de Defesa dos EUA está pressionando as empresas de inteligência artificial para permitir que o exército utilize seus produtos para qualquer propósito legal. Essa exigência se estende a vários grandes desenvolvedores de IA, incluindo Anthropic, OpenAI, Google e xAI.
Resistência da Anthropic
De acordo com relatos, a Anthropic tem sido a mais relutante em atender ao pedido do Pentágono. A posição da empresa centra-se em uma série de preocupações com a política de uso, especificamente seus limites em armas autônomas e vigilância em massa. A Anthropic indicou que não discutiu o uso de seus modelos Claude para qualquer operação militar específica.
Tensão no Contrato
A pressão do Pentágono levou a um sério desacordo sobre o contrato de US$ 200 milhões da Anthropic. Fontes dizem que o departamento está ameaçando encerrar o acordo se a empresa não ampliar suas permissões de uso.
Desacordo sobre o Uso do Claude
Relatos anteriores destacaram um desacordo significativo entre a Anthropic e os funcionários do Departamento de Defesa sobre a implantação de modelos Claude. Um exemplo notável mencionado foi o uso do Claude em uma operação militar dos EUA que resultou na captura do ex-presidente venezuelano Nicolás Maduro.
Comparação com Outras Empresas de IA
Enquanto a Anthropic permanece firme, um funcionário anônimo da administração Trump observou que pelo menos uma das outras empresas de IA concordou com os termos do Pentágono, e as empresas restantes mostraram alguma flexibilidade. Essa comparação destaca a posição distinta da Anthropic nas negociações.
Resposta da Empresa
A Anthropic não respondeu imediatamente às perguntas da TechCrunch. Um porta-voz da empresa, falando à Axios, reiterou que a Anthropic não discutiu operações específicas e permanece focada em seus limites de política em relação a armas autônomas e vigilância.
Implicações
O impasse destaca tensões mais amplas entre os objetivos de segurança nacional e as diretrizes éticas das empresas de IA. O resultado pode moldar como os modelos de IA avançados são integrados às atividades militares e influenciar futuros contratos entre governo e indústria.