Microsoft, Google e Amazon garantem acesso contínuo ao modelo Claude da Anthropic para usuários não militares

Microsoft, Google, and Amazon assure continued access to Anthropic Claude for non‑defense users

Pontos principais

  • O Departamento de Defesa dos EUA rotulou a Anthropic como um risco na cadeia de suprimentos após a empresa recusar-se a conceder acesso irrestrito ao seu modelo Claude para usos militares específicos.
  • Microsoft, Google e Amazon (por meio da AWS) confirmaram que o Claude permanecerá disponível para cargas de trabalho não militares.
  • A Microsoft continuará oferecendo o Claude por meio de produtos como Microsoft 365, GitHub e AI Foundry.
  • O Google afirmou que o Claude permanecerá acessível no Google Cloud para projetos não militares.
  • Os clientes e parceiros da AWS podem continuar usando o Claude para aplicações não militares.
  • O CEO da Anthropic, Dario Amodei, disse que a designação apenas afeta contratos diretos com o Departamento de Defesa.
  • A Anthropic planeja contestar a designação de risco na cadeia de suprimentos na justiça.

Os principais provedores de cloud e software, Microsoft, Google e Amazon, confirmaram que o modelo Claude da Anthropic permanecerá disponível para seus clientes para cargas de trabalho não militares, apesar do Departamento de Defesa dos EUA ter designado a Anthropic como um risco na cadeia de suprimentos.

Contexto

O Departamento de Defesa dos EUA rotulou oficialmente a startup de IA Anthropic como um risco na cadeia de suprimentos após a empresa recusar-se a conceder acesso irrestrito ao seu modelo Claude para aplicações que a empresa considerou perigosas, como vigilância em massa e armas autônomas totalmente autônomas. Essa designação é normalmente reservada para adversários estrangeiros e significa que o Pentágono não pode usar os produtos da Anthropic e deve certificar que os contratantes não os empregam.

Garantias das principais empresas de tecnologia

A Microsoft, a primeira grande empresa de tecnologia a abordar a questão, confirmou que manterá os modelos da Anthropic, incluindo o Claude, disponíveis para seus clientes por meio de serviços como Microsoft 365, GitHub e sua AI Foundry, exceto para contratos diretos do Departamento de Defesa. Um porta-voz da Microsoft disse que a revisão jurídica da empresa concluiu que a designação não impede o uso contínuo do Claude para fins não militares.

O Google ecoou essa posição, afirmando que a determinação não impede a empresa de trabalhar com a Anthropic em projetos não militares e que o Claude permanecerá acessível por meio do Google Cloud.

A divisão de cloud da Amazon, AWS, também relatou que seus clientes e parceiros podem continuar usando o Claude para cargas de trabalho não relacionadas a contratos de defesa.

Posição da Anthropic

O CEO da Anthropic, Dario Amodei, reiterou que a designação de risco na cadeia de suprimentos se aplica apenas ao uso do Claude em contratos diretos com o Departamento de Defesa e não limita outros clientes ou relacionamentos comerciais não relacionados. Ele enfatizou a intenção da empresa de lutar contra a designação na justiça.

Implicações para os clientes

Empresas e startups que integram o Claude por meio de plataformas da Microsoft, Google ou AWS podem prosseguir com suas iniciativas de IA sem interrupção, desde que o uso não esteja relacionado a contratos de defesa. As garantias das três gigantes da tecnologia ajudam a manter a confiança na disponibilidade de ferramentas de IA avançadas para aplicações comerciais e civis.

Desafio jurídico em andamento

A Anthropic prometeu contestar a designação do Departamento de Defesa na justiça, sinalizando uma disputa contínua sobre o equilíbrio entre as preocupações de segurança nacional e o controle corporativo sobre a tecnologia de IA.

#Anthropic#Claude#Microsoft#Google#Amazon#AWS#Departamento de Defesa#risco na cadeia de suprimentos#inteligência artificial#IA empresarial#computação em nuvem#regulamentações de IA

Também disponível em: