Pentágono e Anthropic Entram em Conflito sobre Uso Militar do Claude AI

Pentagon and Anthropic Clash Over Military Use of Claude AI

Pontos principais

  • Pentágono busca uso militar irrestrito de tecnologias de IA de grandes empresas.
  • Anthropic é a mais resistente, enfatizando limites em armas autônomas e vigilância.
  • O departamento ameaça encerrar o contrato de US$ 200 milhões da Anthropic devido a desacordos sobre uso.
  • Modelos Claude foram supostamente utilizados em uma operação dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro.
  • Pelo menos uma outra empresa de IA concordou com os termos do Pentágono, com as demais mostrando flexibilidade.
  • Anthropic afirma que não discutiu operações militares específicas e se concentra em limites de política.

O Pentágono está pressionando as empresas de IA para permitir que o exército dos EUA utilize suas tecnologias para todos os fins legais, mas a Anthropic se tornou a mais resistente. O departamento está ameaçando encerrar seu contrato de US$ 200 milhões com a empresa devido a desacordos sobre como os modelos Claude são utilizados, incluindo uma suposta implantação em uma operação para capturar o ex-presidente venezuelano Nicolás Maduro. Enquanto outras empresas mostram flexibilidade, a Anthropic se concentra em limites rígidos em torno de armas autônomas e vigilância em massa.

Fundo

O Departamento de Defesa dos EUA está pressionando as empresas de inteligência artificial para permitir que o exército utilize seus produtos para qualquer propósito legal. Essa exigência se estende a vários grandes desenvolvedores de IA, incluindo Anthropic, OpenAI, Google e xAI.

Resistência da Anthropic

De acordo com relatos, a Anthropic tem sido a mais relutante em atender ao pedido do Pentágono. A posição da empresa centra-se em uma série de preocupações com a política de uso, especificamente seus limites em armas autônomas e vigilância em massa. A Anthropic indicou que não discutiu o uso de seus modelos Claude para qualquer operação militar específica.

Tensão no Contrato

A pressão do Pentágono levou a um sério desacordo sobre o contrato de US$ 200 milhões da Anthropic. Fontes dizem que o departamento está ameaçando encerrar o acordo se a empresa não ampliar suas permissões de uso.

Desacordo sobre o Uso do Claude

Relatos anteriores destacaram um desacordo significativo entre a Anthropic e os funcionários do Departamento de Defesa sobre a implantação de modelos Claude. Um exemplo notável mencionado foi o uso do Claude em uma operação militar dos EUA que resultou na captura do ex-presidente venezuelano Nicolás Maduro.

Comparação com Outras Empresas de IA

Enquanto a Anthropic permanece firme, um funcionário anônimo da administração Trump observou que pelo menos uma das outras empresas de IA concordou com os termos do Pentágono, e as empresas restantes mostraram alguma flexibilidade. Essa comparação destaca a posição distinta da Anthropic nas negociações.

Resposta da Empresa

A Anthropic não respondeu imediatamente às perguntas da TechCrunch. Um porta-voz da empresa, falando à Axios, reiterou que a Anthropic não discutiu operações específicas e permanece focada em seus limites de política em relação a armas autônomas e vigilância.

Implicações

O impasse destaca tensões mais amplas entre os objetivos de segurança nacional e as diretrizes éticas das empresas de IA. O resultado pode moldar como os modelos de IA avançados são integrados às atividades militares e influenciar futuros contratos entre governo e indústria.

#inteligência artificial#defesa#tecnologia militar#ética de IA#contratos governamentais#Anthropic#Claude#Pentágono#armas autônomas#vigilância#exército dos EUA

Também disponível em: