Anthropic Processa Governo dos EUA por Designação de Risco na Cadeia de Suprimentos

Anthropic Sues U.S. Government Over Supply Chain Risk Designation

Pontos principais

  • A Anthropic entrou com uma ação judicial para bloquear a designação de risco à cadeia de suprimentos do Pentágono.
  • A empresa alega que a designação viola os direitos de livre expressão e devido processo.
  • Os funcionários do Departamento de Defesa pressionaram a Anthropic a remover salvaguardas contra a vigilância e armas autônomas.
  • O CEO Dario Amodei se recusou a comprometer com essas salvaguardas.
  • O Pentágono ameaçou cancelar um contrato de US$ 200 milhões e adicionar a Anthropic à lista de risco à cadeia de suprimentos.
  • A declaração da Anthropic à imprensa afirma que as ações do governo são sem precedentes e ilegais.
  • A OpenAI garantiu um acordo separado com o Departamento de Defesa, com cláusulas de segurança semelhantes.
  • O chefe de hardware de robótica da OpenAI renunciou, citando preocupações com a vigilância e a autonomia letal.

A Anthropic entrou com uma ação judicial para bloquear o Pentágono de adicioná-la a uma lista de bloqueio de segurança nacional após o Departamento de Defesa rotulá-la como um risco à cadeia de suprimentos. A empresa argumenta que a designação viola os direitos de livre expressão e devido processo e carece de autoridade estatutária.

Contexto

A Anthropic, uma desenvolvedora líder de inteligência artificial, recebeu uma carta do Departamento de Defesa confirmando que a agência havia rotulado a empresa como um risco à cadeia de suprimentos. Essa designação colocaria a Anthropic em uma lista de bloqueio de segurança nacional, efetivamente impedindo a empresa de participar de muitos contratos federais.

Semanas de negociações entre a Anthropic e o Departamento de Defesa precederam a ação judicial. No final de fevereiro, o secretário de Defesa, Pete Hegseth, e funcionários seniores pressionaram a Anthropic a remover salvaguardas que impedem que os modelos da empresa sejam usados para vigilância em massa ou o desenvolvimento de armas autônomas. O CEO Dario Amodei deixou claro que a empresa não concordaria com tais usos.

Ação Judicial

Quando a Anthropic se recusou a alterar suas salvaguardas, o Pentágono ameaçou adicioná-la à lista de risco à cadeia de suprimentos e cancelar um contrato de US$ 200 milhões. A empresa respondeu entrando com uma ação judicial solicitando revisão judicial da designação. A queixa alega que a ação do governo é ilegal, viola os direitos de livre expressão e devido processo da Anthropic e carece de qualquer estatuto federal autorizador.

A declaração da Anthropic à imprensa afirma: "Essas ações são sem precedentes e ilegais. A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua expressão protegida." A ação judicial caracteriza a conduta do governo como uma "campanha de retaliação sem precedentes e ilegal".

Posição da Empresa

A Anthropic enfatizou que buscar revisão judicial não muda seu "compromisso de longa data de utilizar a IA para proteger nossa segurança nacional", mas é um passo necessário para proteger seus negócios, clientes e parceiros. A empresa também observou que havia concordado em "colaborar com o Departamento em uma transição ordenada para outro fornecedor de IA disposto a atender às suas demandas".

Reação da Indústria

A OpenAI entrou em cena, garantindo um acordo separado com o Departamento de Defesa. O CEO da OpenAI, Sam Altman, destacou os princípios de segurança da empresa, incluindo proibições à vigilância em massa nacional e responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas. O contrato estabelece explicitamente que "o sistema de IA não será usado intencionalmente para vigilância doméstica de pessoas e nacionais dos EUA".

Após o acordo da OpenAI, o chefe de hardware de robótica da empresa renunciou, e a funcionária Caitlin Kalinowski postou no X que "a vigilância de americanos sem supervisão judicial e a autonomia letal sem autorização humana são linhas que mereciam mais deliberação do que receberam".

Implicações

A ação judicial destaca um confronto crescente entre os objetivos de segurança do governo federal e as salvaguardas éticas dos desenvolvedores de IA. Também destaca as incertezas legais em torno da autoridade do governo para impor designações de risco à cadeia de suprimentos a empresas de tecnologia.

#Inteligência Artificial#Disputa Legal#Segurança Nacional#Risco à Cadeia de Suprimentos#Livre Expressão#Devido Processo#Departamento de Defesa#Ética de IA#Vigilância#Armas Autônomas

Também disponível em:

Anthropic Processa Governo dos EUA por Designação de Risco na Cadeia de Suprimentos | AI News