Anthropic Processa Governo dos EUA por Designação de Risco na Cadeia de Suprimentos

Pontos principais
- A Anthropic entrou com uma ação judicial para bloquear a designação de risco à cadeia de suprimentos do Pentágono.
- A empresa alega que a designação viola os direitos de livre expressão e devido processo.
- Os funcionários do Departamento de Defesa pressionaram a Anthropic a remover salvaguardas contra a vigilância e armas autônomas.
- O CEO Dario Amodei se recusou a comprometer com essas salvaguardas.
- O Pentágono ameaçou cancelar um contrato de US$ 200 milhões e adicionar a Anthropic à lista de risco à cadeia de suprimentos.
- A declaração da Anthropic à imprensa afirma que as ações do governo são sem precedentes e ilegais.
- A OpenAI garantiu um acordo separado com o Departamento de Defesa, com cláusulas de segurança semelhantes.
- O chefe de hardware de robótica da OpenAI renunciou, citando preocupações com a vigilância e a autonomia letal.
A Anthropic entrou com uma ação judicial para bloquear o Pentágono de adicioná-la a uma lista de bloqueio de segurança nacional após o Departamento de Defesa rotulá-la como um risco à cadeia de suprimentos. A empresa argumenta que a designação viola os direitos de livre expressão e devido processo e carece de autoridade estatutária.
Contexto
A Anthropic, uma desenvolvedora líder de inteligência artificial, recebeu uma carta do Departamento de Defesa confirmando que a agência havia rotulado a empresa como um risco à cadeia de suprimentos. Essa designação colocaria a Anthropic em uma lista de bloqueio de segurança nacional, efetivamente impedindo a empresa de participar de muitos contratos federais.
Semanas de negociações entre a Anthropic e o Departamento de Defesa precederam a ação judicial. No final de fevereiro, o secretário de Defesa, Pete Hegseth, e funcionários seniores pressionaram a Anthropic a remover salvaguardas que impedem que os modelos da empresa sejam usados para vigilância em massa ou o desenvolvimento de armas autônomas. O CEO Dario Amodei deixou claro que a empresa não concordaria com tais usos.
Ação Judicial
Quando a Anthropic se recusou a alterar suas salvaguardas, o Pentágono ameaçou adicioná-la à lista de risco à cadeia de suprimentos e cancelar um contrato de US$ 200 milhões. A empresa respondeu entrando com uma ação judicial solicitando revisão judicial da designação. A queixa alega que a ação do governo é ilegal, viola os direitos de livre expressão e devido processo da Anthropic e carece de qualquer estatuto federal autorizador.
A declaração da Anthropic à imprensa afirma: "Essas ações são sem precedentes e ilegais. A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua expressão protegida." A ação judicial caracteriza a conduta do governo como uma "campanha de retaliação sem precedentes e ilegal".
Posição da Empresa
A Anthropic enfatizou que buscar revisão judicial não muda seu "compromisso de longa data de utilizar a IA para proteger nossa segurança nacional", mas é um passo necessário para proteger seus negócios, clientes e parceiros. A empresa também observou que havia concordado em "colaborar com o Departamento em uma transição ordenada para outro fornecedor de IA disposto a atender às suas demandas".
Reação da Indústria
A OpenAI entrou em cena, garantindo um acordo separado com o Departamento de Defesa. O CEO da OpenAI, Sam Altman, destacou os princípios de segurança da empresa, incluindo proibições à vigilância em massa nacional e responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas. O contrato estabelece explicitamente que "o sistema de IA não será usado intencionalmente para vigilância doméstica de pessoas e nacionais dos EUA".
Após o acordo da OpenAI, o chefe de hardware de robótica da empresa renunciou, e a funcionária Caitlin Kalinowski postou no X que "a vigilância de americanos sem supervisão judicial e a autonomia letal sem autorização humana são linhas que mereciam mais deliberação do que receberam".
Implicações
A ação judicial destaca um confronto crescente entre os objetivos de segurança do governo federal e as salvaguardas éticas dos desenvolvedores de IA. Também destaca as incertezas legais em torno da autoridade do governo para impor designações de risco à cadeia de suprimentos a empresas de tecnologia.