Restrições de Vigilância da Anthropic Geram Tensão com a Casa Branca

Pontos principais
- Oficiais da Casa Branca estão frustrados com a proibição da Anthropic ao uso de modelos de Claude para vigilância doméstica.
- Contratados federais do FBI e do Serviço Secreto enfrentam obstáculos ao buscar ferramentas de vigilância impulsionadas por IA.
- Os modelos de Claude da Anthropic estão entre os poucos sistemas de IA liberados para trabalho de segredo máximo por meio da AWS GovCloud.
- A empresa tem um acordo de $1 para fornecer serviços de IA a clientes federais.
- Um acordo abrangente da GSA agora permite que a OpenAI, o Google e a Anthropic forneçam ferramentas de IA a funcionários federais.
- A OpenAI entregará o ChatGPT Enterprise a mais de 2 milhões de funcionários federais por $1 por agência por ano.
- A Anthropic também atende ao Departamento de Defesa, mas ainda proíbe o uso de seus modelos para desenvolvimento de armas.
Oficiais da Casa Branca expressaram frustração com a política da Anthropic que proíbe o uso de seus modelos de Claude para vigilância doméstica. A restrição está criando obstáculos para contratados federais que trabalham com agências como o FBI e o Serviço Secreto.
Contexto
Os modelos de Claude da Anthropic são usados em contextos de alta segurança e estão liberados para situações de segredo máximo por meio da Amazon Web Services’ GovCloud. A empresa tem um acordo especial com o governo federal que fornece seus serviços por uma taxa nominal de $1.
Restrições de Política
As políticas de uso da Anthropic proíbem o uso de seus modelos de IA para vigilância doméstica, uma postura que tem gerado críticas de oficiais seniores da Casa Branca. Contratados que trabalham com agências como o FBI e o Serviço Secreto encontraram obstáculos ao tentar empregar o Claude para tarefas relacionadas à vigilância. Oficiais preocupam-se de que a empresa aplique suas políticas de forma seletiva e use terminologia vaga que permite interpretação ampla.
Acordos Federais
Além do acordo de $1 da Anthropic, a Administração de Serviços Gerais recentemente assinou um acordo abrangente que permite que a OpenAI, o Google e a Anthropic forneçam ferramentas de IA a funcionários federais. A OpenAI anunciou um contrato separado para fornecer acesso ao ChatGPT Enterprise a mais de 2 milhões de funcionários do poder executivo federal por $1 por agência por ano.
Contexto da Indústria
A tensão destaca um conflito entre as políticas de uso ético de provedores de IA privados e a demanda de agências governamentais por capacidades de IA avançadas em operações de aplicação da lei e segurança nacional. Embora a Anthropic também trabalhe com o Departamento de Defesa, suas políticas continuam a proibir o uso de seus modelos para desenvolvimento de armas.