Restrições de Vigilância da Anthropic Geram Tensão com a Casa Branca

White House officials reportedly frustrated by Anthropic’s law enforcement AI limits

Pontos principais

  • Oficiais da Casa Branca estão frustrados com a proibição da Anthropic ao uso de modelos de Claude para vigilância doméstica.
  • Contratados federais do FBI e do Serviço Secreto enfrentam obstáculos ao buscar ferramentas de vigilância impulsionadas por IA.
  • Os modelos de Claude da Anthropic estão entre os poucos sistemas de IA liberados para trabalho de segredo máximo por meio da AWS GovCloud.
  • A empresa tem um acordo de $1 para fornecer serviços de IA a clientes federais.
  • Um acordo abrangente da GSA agora permite que a OpenAI, o Google e a Anthropic forneçam ferramentas de IA a funcionários federais.
  • A OpenAI entregará o ChatGPT Enterprise a mais de 2 milhões de funcionários federais por $1 por agência por ano.
  • A Anthropic também atende ao Departamento de Defesa, mas ainda proíbe o uso de seus modelos para desenvolvimento de armas.

Oficiais da Casa Branca expressaram frustração com a política da Anthropic que proíbe o uso de seus modelos de Claude para vigilância doméstica. A restrição está criando obstáculos para contratados federais que trabalham com agências como o FBI e o Serviço Secreto.

Contexto

Os modelos de Claude da Anthropic são usados em contextos de alta segurança e estão liberados para situações de segredo máximo por meio da Amazon Web Services’ GovCloud. A empresa tem um acordo especial com o governo federal que fornece seus serviços por uma taxa nominal de $1.

Restrições de Política

As políticas de uso da Anthropic proíbem o uso de seus modelos de IA para vigilância doméstica, uma postura que tem gerado críticas de oficiais seniores da Casa Branca. Contratados que trabalham com agências como o FBI e o Serviço Secreto encontraram obstáculos ao tentar empregar o Claude para tarefas relacionadas à vigilância. Oficiais preocupam-se de que a empresa aplique suas políticas de forma seletiva e use terminologia vaga que permite interpretação ampla.

Acordos Federais

Além do acordo de $1 da Anthropic, a Administração de Serviços Gerais recentemente assinou um acordo abrangente que permite que a OpenAI, o Google e a Anthropic forneçam ferramentas de IA a funcionários federais. A OpenAI anunciou um contrato separado para fornecer acesso ao ChatGPT Enterprise a mais de 2 milhões de funcionários do poder executivo federal por $1 por agência por ano.

Contexto da Indústria

A tensão destaca um conflito entre as políticas de uso ético de provedores de IA privados e a demanda de agências governamentais por capacidades de IA avançadas em operações de aplicação da lei e segurança nacional. Embora a Anthropic também trabalhe com o Departamento de Defesa, suas políticas continuam a proibir o uso de seus modelos para desenvolvimento de armas.

#Anthropic#Claude#Casa Branca#FBI#Serviço Secreto#AWS GovCloud#Departamento de Defesa#OpenAI#ChatGPT Enterprise#Administração de Serviços Gerais#Política de IA#Vigilância Doméstica

Também disponível em: