Pentágono Ameaça Cancelar Acordo com Anthropic por Uso de IA em Armas Autônomas e Vigilância

Pentagon Threatens to Cut Anthropic Deal Over AI Use in Autonomous Weapons and Surveillance

Pontos principais

  • Pentágono solicita que parceiros de IA permitam o uso de modelos para todos os fins legais.
  • Anthropic alerta que seus modelos Claude poderiam ser usados em armas autônomas e vigilância em massa.
  • O departamento ameaça encerrar um contrato de US$ 200 milhões com a Anthropic devido ao desacordo.
  • Anthropic afirma não ter discutido o uso de Claude em qualquer operação específica.
  • Uma empresa de IA já concordou em conceder ao Pentágono acesso total ao seu modelo; outras estão mostrando flexibilidade.
  • Especialistas em segurança e CEO da Anthropic defendem uma regulação mais forte de IA em contextos militares.

Um desacordo surgiu entre o Pentágono e a empresa de IA Anthropic após o departamento de defesa solicitar que seus contratados permitissem o uso irrestrito de seus modelos para todos os fins legais. A Anthropic alertou que seus modelos Claude poderiam ser aplicados em armas autônomas totalmente e vigilância doméstica em massa, levando o Pentágono a considerar a rescisão de seu contrato de US$ 200 milhões. O impasse reflete preocupações mais amplas entre especialistas em segurança e formuladores de políticas sobre os limites éticos da IA em operações militares.

Contexto do Conflito entre o Pentágono e a Anthropic

O Departamento de Defesa dos Estados Unidos recentemente emitiu uma solicitação a seus parceiros de IA - Anthropic, OpenAI, Google e xAI - pedindo que seus modelos estivessem disponíveis para "todos os fins legais". Essa solicitação ampla despertou um desacordo agudo com a Anthropic, criadora da família de modelos de linguagem Claude.

Preocupações Expressas pela Anthropic

A Anthropic expressou publicamente apreensão de que seus modelos Claude possam ser usados em "armas autônomas totalmente e vigilância doméstica em massa". A política de uso da empresa com o Pentágono está sob revisão, especificamente para abordar esses limites rigorosos. Um porta-voz da Anthropic esclareceu que a empresa não discutiu o uso de Claude para qualquer operação militar específica, embora o Wall Street Journal tenha relatado que Claude foi empregado em uma operação dos EUA para capturar o ex-presidente da Venezuela, Nicolás Maduro.

Resposta do Pentágono

O porta-voz-chefe do Pentágono, Sean Parnell, enfatizou a necessidade de parceiros ajudarem os combatentes a ter sucesso em qualquer conflito, enquadrando a solicitação como essencial para a segurança nacional. Em resposta às reservas da Anthropic, o Pentágono sinalizou que poderia rescindir o contrato existente de US$ 200 milhões se o fornecedor de IA não concordar com a cláusula de uso irrestrito.

Contexto da Indústria

De acordo com um consultor anônimo da administração Trump, uma das empresas de IA já concordou em conceder ao Pentágono acesso total ao seu modelo, enquanto as outras duas estão mostrando flexibilidade. O desacordo com a Anthropic destaca uma fissura crescente entre o establishment de defesa e várias empresas de IA líderes sobre o escopo permitido de aplicações de IA na guerra.

Chamadas para Regulação

Especialistas em segurança, formuladores de políticas e o CEO da Anthropic, Dario Amodei, defendem uma regulação mais rigorosa do desenvolvimento de IA, especialmente no que diz respeito a sistemas de armas e outras tecnologias militares. O impasse atual destaca a tensão entre a inovação rápida de IA e a necessidade de salvaguardas éticas.

#Pentágono#Anthropic#Claude#Inteligência artificial#Armas autônomas#Vigilância#Contratos de defesa#Ética de IA#Regulação#Segurança nacional

Também disponível em:

Pentágono Ameaça Cancelar Acordo com Anthropic por Uso de IA em Armas Autônomas e Vigilância | AI News