Confronto da Anthropic com o Pentágono sobre Política de Uso de IA

Pontos principais
- O modelo Claude da Anthropic está vinculado a um contrato de $200 milhões com o Pentágono que inclui uma política de uso responsável.
- O Pentágono busca uma cláusula de "qualquer uso legal", expandindo as aplicações militares potenciais.
- A Anthropic se recusa a apoiar armas letais autônomas e vigilância doméstica em massa.
- A designação como um risco na cadeia de suprimentos pode encerrar o contrato e forçar os contratantes a abandonar o Claude.
- Outras empresas de IA já renegociaram seus contratos com o Pentágono para alinhar com as demandas de uso mais amplas.
- A disputa destaca a tensão entre a adoção rápida de IA para defesa e as políticas éticas das empresas.
A Anthropic, startup de IA por trás do modelo Claude, está travada em uma disputa de alto risco com o Departamento de Defesa dos EUA. O Pentágono deseja uso irrestrito, "qualquer uso legal" da tecnologia da Anthropic, enquanto a empresa se recusa a apoiar armas letais autônomas e vigilância doméstica em massa. O desacordo ameaça um contrato de $200 milhões e pode forçar os contratantes de defesa a abandonar os modelos da Anthropic. O conflito destaca a tensão entre a adoção rápida de IA para fins militares e as políticas de uso responsável das empresas.
Contexto
A Anthropic, conhecida por seu modelo de IA Claude, assinou um contrato de $200 milhões com o Departamento de Defesa no ano passado. O acordo incorpora a "política de uso aceitável" da empresa, que proíbe o uso de sua tecnologia para operações cinéticas autônomas e vigilância doméstica em massa.
Posição do Pentágono
O Pentágono, liderado pelo Subsecretário de Defesa para Pesquisa e Engenharia Emil Michael, está pressionando por uma cláusula de "qualquer uso legal" que daria ao militar carta branca para empregar os serviços da Anthropic em qualquer capacidade, incluindo vigilância em massa e armas letais autônomas.
Linhagens Vermelhas da Anthropic
A Anthropic deixou claro que não atenderá a pedidos que conflitem com sua política. A empresa cita diretrizes existentes do DoD que exigem julgamento humano no uso da força e proíbem a coleta de inteligência sobre pessoas nos EUA sem autoridade legal específica.
Consequências Potenciais
Se o Pentágono classificar a Anthropic como um risco na cadeia de suprimentos, o contrato de $200 milhões pode ser rescindido e os contratantes de defesa que dependem do Claude podem ser forçados a remover a tecnologia de seus sistemas. Isso teria um efeito em cascata em toda a indústria de defesa, que atualmente usa o modelo da Anthropic para trabalhos classificados.
Reação da Indústria
Outras empresas de IA, como OpenAI, xAI e Google, já renegociaram seus próprios contratos com o Pentágono para alinhar com a linguagem de "qualquer uso legal". No entanto, a posição da Anthropic atraiu críticas e apoio de vários trabalhadores de tecnologia e especialistas em políticas, destacando o debate mais amplo sobre o uso responsável de IA em contextos de segurança nacional.