CEO da Anthropic, Dario Amodei, Retorna às Negociações com o Pentágono para Preservar Acordo de Defesa

Anthropic CEO Dario Amodei Returns to Pentagon Negotiations to Preserve Defense Deal

Pontos principais

  • O CEO da Anthropic, Dario Amodei, reengaja com o Departamento de Defesa após as conversas terem sido interrompidas sobre o acesso à IA.
  • O Pentágono exigiu uso irrestrito do Claude, enquanto a Anthropic insiste em duas linhas vermelhas: não permitirá vigilância em massa e não apoiará armas autônomas letais.
  • O Secretário de Defesa Pete Hegseth ameaçou rotular a Anthropic como um risco na cadeia de suprimentos, o que poderia forçar outros contratantes a remover a tecnologia da empresa de seus projetos de defesa.
  • Novas negociações envolvem o Subsecretário Emil Michael e podem remover a cláusula controversa sobre análise de dados bulk.
  • Amodei circulou um memorando interno criticando a posição do Pentágono e contrastando a Anthropic com rivais como a OpenAI.
  • Um acordo bem-sucedido manteria o Claude em uso de defesa; um fracasso poderia isolar a Anthropic de futuros contratos governamentais.

O CEO da Anthropic, Dario Amodei, está de volta à mesa de negociações com o Departamento de Defesa dos EUA após as conversas terem sido interrompidas devido à exigência do Pentágono de acesso irrestrito aos modelos de IA Claude da empresa. As negociações renovadas visam evitar a designação de risco na cadeia de suprimentos, que poderia impedir a Anthropic de participar de futuros trabalhos de defesa.

Contexto

A Anthropic, a startup por trás da família de modelos de inteligência artificial Claude, tem sido um fornecedor-chave de tecnologia de IA para o Exército dos EUA. Seus sistemas receberam autorização de segurança para lidar com informações classificadas e foram supostamente usados em contextos operacionais. No entanto, a relação azedou quando o Departamento de Defesa buscou acesso irrestrito à tecnologia da empresa.

Conflito sobre Acesso à IA

A insistência do Pentágono em "qualquer uso legal" do Claude entrou em conflito com as restrições políticas da Anthropic. A empresa traçou duas linhas vermelhas firmes: não permitirá a vigilância em massa de cidadãos americanos e se recusa a apoiar armas autônomas letais que possam operar sem supervisão humana. A exigência do Departamento de Defesa de acesso irrestrito e a inclusão de uma cláusula sobre "análise de dados bulk" no contrato foram vistas pela Anthropic como uma violação dessas linhas vermelhas.

Após semanas de disputa pública, as negociações fracassaram em uma sexta-feira, e o Secretário de Defesa Pete Hegseth ameaçou rotular a Anthropic como um risco na cadeia de suprimentos - uma designação normalmente reservada para empresas com ligações estrangeiras que representam preocupações de segurança nacional. Tal rótulo poderia forçar outros contratantes a remover a tecnologia da Anthropic de seus próprios projetos de defesa.

Novas Negociações

De acordo com o Financial Times, Amodei agora está em negociações com o Subsecretário de Defesa para Pesquisa e Engenharia Emil Michael sobre um contrato revisado que permitiria o uso continuado do Claude enquanto preserva as linhas vermelhas da empresa. Michael anteriormente criticou Amodei nas redes sociais, chamando-o de "mentiroso" e acusando-o de colocar em risco a segurança nacional. Apesar da retórica dura, a última rodada de negociações sugere que o departamento pode estar disposto a remover a frase controversa sobre análise de dados bulk.

Amodei circulou um memorando interno para a equipe da Anthropic, descrevendo a posição anterior do Pentágono como "mentiras diretas" e contrastando a postura da Anthropic com a abordagem da OpenAI, que ele rotulou de "teatro de segurança". Ele também observou que a relação da Anthropic com o governo federal havia se deteriorado porque a empresa não fez doações políticas para a atual administração.

Implicações Potenciais

Se um novo acordo for alcançado, poderia preservar a posição da Anthropic no setor de defesa e manter o Claude disponível para missões classificadas. O fracasso em garantir um acordo poderia resultar na designação de risco na cadeia de suprimentos, levando outras empresas de tecnologia a se distanciar da Anthropic para proteger seus próprios contratos de defesa. O resultado também pode influenciar como outras empresas de IA negociam termos de acesso e uso com agências governamentais, especialmente à medida que rivais como a OpenAI e a xAI relataram ter concordado com termos mais permissivos.

O conflito destaca a crescente tensão entre objetivos de segurança nacional e políticas corporativas sobre uso ético de IA. Ele sublinha o desafio de equilibrar as necessidades militares de tecnologia avançada com salvaguardas contra uso indevido, um debate que provavelmente moldará a aquisição e regulação futuras de IA nos EUA.

#Inteligência artificial#Contratos de defesa#Pentágono#Anthropic#Claude#Risco na cadeia de suprimentos#Exército dos EUA#Política de IA#OpenAI#Departamento de Defesa

Também disponível em: