Anthropic Desafia Designação de Risco na Cadeia de Suprimentos do Pentágono na Justiça

Anthropic to Challenge Pentagon Supply‑Chain Risk Designation in Court

Pontos principais

  • A Anthropic recebeu uma carta do Departamento de Defesa designando seus produtos de IA como um risco na cadeia de suprimentos.
  • O CEO Dario Amodei planeja contestar a designação na justiça, citando preocupações legais.
  • A restrição se aplica apenas ao uso de defesa; o acesso público e comercial ao chatbot Claude permanece inalterado.
  • A Microsoft continuará usando o Claude da Anthropic após revisão jurídica.
  • A Anthropic está em negociações com o Pentágono para explorar a conformidade com duas exceções: não vigilância em massa e não armas autônomas.
  • A designação reflete tensões mais amplas entre as empresas de IA e as políticas de segurança do governo.

O CEO da Anthropic, Dario Amodei, anunciou que a empresa contestará a designação do Departamento de Defesa que rotula seus produtos de IA como um risco na cadeia de suprimentos. A medida segue um aviso do Pentágono de que a designação é eficaz imediatamente.

Desafio Legal da Anthropic à Designação de Risco na Cadeia de Suprimentos do Pentágono

Em uma postagem recente no blog, o CEO da Anthropic, Dario Amodei, divulgou que a empresa de inteligência artificial recebeu uma carta formal do Departamento de Defesa rotulando oficialmente seus produtos como um risco na cadeia de suprimentos. A designação, que o Pentágono disse ser eficaz imediatamente, aciona restrições ao uso da tecnologia da Anthropic para certos propósitos relacionados à defesa.

Amodei afirmou que não acredita que a ação do departamento seja legalmente sólida e que a Anthropic não tem escolha senão contestar a designação na justiça. Ele enquadrou a batalha legal iminente como uma resposta necessária para proteger a capacidade da empresa de continuar oferecendo seus serviços de IA.

A etiqueta de risco na cadeia de suprimentos, de acordo com Amodei, tem um escopo limitado destinado a proteger os interesses do governo. Ele enfatizou que a restrição não se estende ao público em geral ou mesmo à maioria dos contratantes do Departamento de Defesa, permitindo o acesso contínuo ao chatbot Claude da Anthropic e às ferramentas de IA relacionadas para aplicações não relacionadas à defesa.

A Microsoft, uma grande parceira comercial, confirmou que continuará usando o Claude após sua equipe jurídica concluir que a parceria pode prosseguir em projetos não relacionados à defesa. Isso destaca que a designação não impede todas as relações comerciais, apenas aquelas que caem sob as restrições específicas relacionadas à defesa.

Negociações e Exceções

Amodei também observou que a Anthropic teve "conversas produtivas" com o Departamento de Defesa nos últimos dias. As discussões focam em como a empresa pode ainda servir ao Pentágono respeitando duas exceções explícitas: a tecnologia não deve ser empregada para vigilância em massa ou para o desenvolvimento de armas totalmente autônomas.

O CEO indicou que a Anthropic está explorando maneiras de garantir uma transição suave caso essas exceções se provem inatingíveis, sugerindo uma disposição para negociar um novo acordo que alinhe com as preocupações de segurança do departamento.

Contexto e Antecedentes

A designação ecoa tensões anteriores entre o governo e as empresas de IA. Em instâncias anteriores, o departamento ameaçou aplicar uma etiqueta semelhante a empresas de nações adversárias se elas não removessem salvaguardas relacionadas à vigilância em massa e armas autônomas. A atual administração, referida na fonte como o Departamento de Guerra, ordenou anteriormente que agências federais parassem de usar a tecnologia da Anthropic.

A postagem no blog de Amodei também referenciou um memorando interno vazado no qual ele descreveu as declarações da OpenAI sobre seu próprio contrato de defesa como "simplesmente mentiras". Embora esse comentário não seja mais elaborado, ele destaca a competição e a escrutínio contínuos dentro da indústria de IA com relação a contratos governamentais.

Implicações

O caso judicial iminente testará os fundamentos legais da autoridade de risco na cadeia de suprimentos do Pentágono. Um veredito a favor da Anthropic poderia preservar o uso comercial mais amplo dos produtos de IA da empresa, enquanto uma decisão que apoie a designação do departamento poderia restringir a participação da empresa em projetos de defesa e potencialmente influenciar como outros fornecedores de IA interagem com contratos governamentais.

Independentemente do resultado, a posição da Anthropic sinaliza um compromisso firme em defender sua liberdade operacional e destaca a crescente fricção entre as tecnologias de IA emergentes e as políticas de segurança governamentais.

#Anthropic#Departamento de Defesa#IA#Claude#Pentágono#desafio judicial#risco na cadeia de suprimentos#política de IA do governo#vigilância em massa#armas autônomas#Microsoft

Também disponível em:

Anthropic Desafia Designação de Risco na Cadeia de Suprimentos do Pentágono na Justiça | AI News