Pentágono Declara Anthropic um Risco de Segurança Inaceitável

Pentagon Declares Anthropic an Unacceptable Security Risk

Pontos principais

  • O Pentágono afirma que o acesso contínuo da Anthropic à infraestrutura de guerra criaria risco inaceitável.
  • Uma provisão nos contratos de IA permite o uso para qualquer propósito legal; a Anthropic se recusou a aceitá-la.
  • O departamento alertou que a Anthropic poderia desabilitar ou alterar seus modelos de IA durante operações se as "linhas vermelhas" corporativas forem cruzadas.
  • A Anthropic processou para contestar uma designação de risco de cadeia de suprimentos após se recusar a certos usos de defesa.
  • A empresa busca uma injunção preliminar para pausar a proibição enquanto contesta a designação.
  • A petição sugere que a etiqueta poderia custar à Anthropic bilhões de dólares em receita.
  • A Microsoft, a Google e a OpenAI apresentaram breves em apoio à Anthropic.
  • O Presidente Trump ordenou que as agências federais parassem de usar a tecnologia da Anthropic.

O Departamento de Defesa argumentou que permitir que a Anthropic continue a ter acesso à sua infraestrutura de guerra introduziria um risco inaceitável às cadeias de suprimentos e à segurança nacional. Em uma petição judicial respondendo à ação da Anthropic sobre uma designação de risco de cadeia de suprimentos, o Pentágono citou preocupações de que a empresa poderia desabilitar ou alterar seus modelos de IA durante operações se as "linhas vermelhas" corporativas fossem cruzadas.

Preocupações de Segurança do Pentágono

O Departamento de Defesa sustentou que conceder à Anthropic acesso contínuo à sua infraestrutura de guerra "introduziria risco inaceitável" às suas cadeias de suprimentos, como detalhado em uma petição judicial respondendo à ação da empresa de IA. A petição explicou que o secretário do departamento, Pete Hegseth, havia incorporado uma provisão nos contratos de serviços de IA que permite à agência usar as tecnologias para qualquer propósito legal. A recusa da Anthropic em aceitar esses termos levantou dúvidas sobre sua adequação como "parceira confiável" para iniciativas altamente sensíveis.

O Pentágono alertou que os sistemas de IA são altamente vulneráveis à manipulação. Ele afirmou que a Anthropic poderia potencialmente desabilitar sua tecnologia ou alterar antecipadamente o comportamento de seu modelo antes ou durante operações de guerra em andamento se, a seu critério, a empresa sentisse que suas "linhas vermelhas" corporativas estavam sendo cruzadas. O departamento considerou esse cenário um "risco inaceitável à segurança nacional", referindo-se à agência como o Departamento de Guerra, o nome favorecido pela administração Trump.

Conflito Legal e Impacto Potencial

A Anthropic processou o governo para contestar a designação de risco de cadeia de suprimentos que recebeu após se recusar a permitir que seu modelo fosse usado para vigilância em massa e desenvolvimento de armas autônomas. A empresa busca uma injunção preliminar para pausar a proibição enquanto contesta a designação na justiça. A petição indicou que os clientes da Anthropic poderiam continuar trabalhando com a empresa em projetos não de defesa, mas a etiqueta poderia causar à empresa a perda de bilhões de dólares em receita.

Embora a petição não tenha esclarecido se a Anthropic ainda está buscando um novo acordo com o governo, o New York Times observou que a Microsoft, a Google e a OpenAI haviam apresentado breves amicus curiae em apoio à Anthropic. A petição também referenciou a ordem do Presidente Trump para que as agências federais parassem de usar a tecnologia da Anthropic, sublinhando a posição da administração sobre o risco de segurança percebido.

#Departamento de Defesa#Anthropic#Segurança de IA#Segurança Nacional#Contrato Governamental#Ética de IA#IA Militar#Administração Trump#Risco de Cadeia de Suprimentos#Disputa Legal

Também disponível em:

Pentágono Declara Anthropic um Risco de Segurança Inaceitável | AI News