Anthropic Flexibiliza Compromissos de Segurança sob Pressão do Pentágono

Pontos principais
- A Anthropic substitui limites rígidos de segurança por relatórios de risco e planos de segurança mais flexíveis.
- A mudança é justificada como uma resposta a um ambiente competitivo de IA e preocupações coletivas.
- O Secretário de Defesa Pete Hegseth relatou pressionar a Anthropic para conceder acesso irrestrito ao modelo Claude para o militar.
- Penalidades potenciais incluem invocar a Lei de Produção de Defesa e revogar contratos do Pentágono.
- A Anthropic se recusa a permitir que o modelo Claude seja usado para vigilância em massa ou armas totalmente autônomas.
- Líderes de ética de IA alertam que a política mais flexível poderia permitir uma erosão gradual dos padrões de segurança.
- O modelo Claude da Anthropic permanece como uma ferramenta de IA fundamental para operações sensíveis do Pentágono.
A Anthropic anunciou uma revisão de sua Política de Escala Responsável, substituindo limites rígidos de segurança por relatórios de risco e planos de segurança mais flexíveis. A mudança segue relatos de que o Secretário de Defesa Pete Hegseth pressionou a empresa a conceder acesso irrestrito ao modelo de IA Claude para o militar, ameaçando penalidades sob a Lei de Produção de Defesa. A liderança da Anthropic argumentou que paradas estritas no treinamento de modelos não ajudariam mais ninguém, given a rápida evolução do desenvolvimento de IA. Críticos alertaram que a mudança poderia erodir salvaguardas e permitir um gradual "efeito de ebulição de sapo" nos padrões de segurança.
Mudança de Política na Anthropic
A Anthropic divulgou que está modificando sua Política de Escala Responsável (RSP). Anteriormente, a política continha limites rígidos que interrompiam o treinamento de modelos a menos que garantias de segurança específicas pudessem ser atendidas antecipadamente. A nova versão adopta uma abordagem mais relativa, introduzindo "Relatórios de Risco" e "Planos de Segurança de Fronteira" para fornecer transparência pública em vez de limites rígidos.
Razão da Mudança
A empresa disse que a ajuste decorre de um "problema de ação coletiva" em um cenário competitivo de IA e preocupações de que uma postura anti-regulatória nos Estados Unidos poderia deixar o campo menos seguro se alguns desenvolvedores pausassem enquanto outros avançavam sem mitigações fortes. O diretor de ciência da Anthropic, Jared Kaplan, disse ao Time que o avanço rápido da IA tornou compromissos unilaterais inúteis, observando: "Sentimos que não ajudaria a ninguém se parássemos de treinar modelos de IA".
Pressão do Pentágono Relatada
Concomitantemente com o anúncio da política, o Axios relatou que o Secretário de Defesa Pete Hegseth disse ao CEO da Anthropic, Dario Amodei, que a empresa deve conceder acesso irrestrito ao modelo Claude para o militar até uma data limite ou enfrentar penalidades. As ameaças alegadas de Hegseth incluíam invocar a Lei de Produção de Defesa, que poderia compelir empresas privadas a priorizar certos contratos para defesa nacional, e potencialmente cortar o contrato do Pentágono com a Anthropic enquanto rotulava o modelo como um risco de cadeia de suprimentos.
Implicações para Uso Militar
O Claude é relatado como o único modelo de IA usado para o trabalho mais sensível do Pentágono, com referências à sua participação em uma operação na Venezuela. Um oficial de defesa enfatizou a urgência da tecnologia, dizendo: "A única razão pela qual ainda estamos falando com essas pessoas é que precisamos delas e precisamos agora". A Anthropic indicou disposição para adotar suas políticas de uso para o Pentágono, mas se recusa a permitir que o modelo seja usado para vigilância em massa de americanos ou armas totalmente autônomas.
Reações da Comunidade de Ética de IA
Chris Painter, diretor da organização sem fins lucrativos METR, descreveu a mudança de política como compreensível e potencialmente sinistra. Ele elogiou o foco em relatórios de risco transparentes, mas alertou que uma RSP mais flexível poderia levar a um "efeito de ebulição de sapo", onde racionalizações incrementais gradualmente erodem padrões de segurança. Painter observou que a mudança sugere que a Anthropic está entrando em "modo de triagem" porque os métodos atuais para avaliar e mitigar riscos estão atrasados em relação ao crescimento rápido das capacidades.
Contexto da Indústria
As versões mais recentes do Claude da Anthropic receberam elogios, especialmente para tarefas de codificação. No início do ano, a empresa levantou uma grande rodada de investimentos, aumentando sua valorização para vários hundredos de bilhões de dólares, enquanto uma empresa rival de IA tem uma valorização que excede $800 bilhões. A revisão da política reflete a tensão mais ampla da indústria entre desenvolvimento rápido, pressão competitiva e o desejo de manter salvaguardas de segurança robustas.