Pentágono Planeja Treinar Modelos de IA em Dados Militares Classificados

Pontos principais
- Pentágono pretende treinar modelos de IA em dados militares classificados para uso exclusivo.
- Treinamento ocorreria em um centro de dados seguro aprovado para projetos classificados.
- O Departamento manteria a propriedade de todos os dados usados no treinamento de modelos.
- OpenAI e xAI devem participar; Anthropic pode ser excluída.
- Especialistas alertam que a implantação mais ampla de modelos pode expor informações classificadas a pessoal sem autorização.
- A iniciativa apoia a estratégia de "guerra primeira" com IA do Departamento de Defesa.
- Autorizações de segurança podem ser concedidas a funcionários selecionados das empresas de IA para acesso ao treinamento.
O Departamento de Defesa dos EUA está preparando para treinar versões de modelos de inteligência artificial em informações classificadas para uso militar exclusivo. A iniciativa ocorreria em um centro de dados seguro autorizado para projetos classificados, com o Pentágono mantendo a propriedade de todos os dados de treinamento. Empresas como OpenAI e xAI devem participar, enquanto Anthropic pode ser excluída devido às suas restrições de política. Especialistas alertam que o treinamento em dados sensíveis pode expor material classificado a pessoal sem a devida autorização, levantando preocupações de segurança sobre a implantação mais ampla de modelos dentro do estabelecimento de defesa.
Contexto
O Departamento de Defesa dos EUA está se movendo em direção a uma postura de "guerra primeira" com IA, como delineado em uma declaração recente do Secretário de Defesa Pete Hegseth. O uso atual de modelos de inteligência artificial inclui aplicações como o Claude da Anthropic, que supostamente assistiu em operações envolvendo a captura do presidente venezuelano Nicolás Maduro e um ataque ao Irã. Essas implantações existentes usam tecnologia de IA disponível publicamente, mas o Pentágono busca capacidades mais precisas treinando modelos em dados classificados.
Abordagem Planejada
De acordo com a MIT Technology Review, o Departamento de Defesa pretende realizar o treinamento em um centro de dados seguro que é aprovado para projetos governamentais classificados. O plano prevê a criação de cópias de modelos de IA que serão de propriedade exclusiva do Pentágono, com os dados de treinamento permanecendo sob controle do governo. Em casos limitados, indivíduos das empresas de IA podem ser concedidos as necessárias autorizações de segurança para acessar o material classificado necessário para o treinamento.
Riscos Potenciais
Alek Mehta, ex-líder de política de IA no Google e OpenAI, alertou que o treinamento de modelos em dados classificados carrega riscos significativos. Embora os modelos resultantes sejam dedicados a fins militares, há preocupação de que, se um modelo for implantado em toda a agência de defesa, pessoal sem a devida autorização possa inadvertidamente obter acesso a informações sensíveis incorporadas nas respostas do modelo.
Participação da Indústria
A iniciativa deve envolver grandes desenvolvedores de IA, como OpenAI e xAI, ambos os quais recentemente assinaram acordos com a agência. A Anthropic, uma longa contratada do governo, pode não participar porque se recusou a permitir que sua tecnologia seja usada para vigilância em massa ou armas autônomas, uma postura que anteriormente levou a uma proibição de seu uso por agências federais.
Implicações
Se implementada, o programa marcaria uma mudança em direção à integração de ferramentas de IA altamente especializadas em processos de tomada de decisão militar, potencialmente melhorando a precisão e o detalhe das respostas em cenários que não são documentados publicamente. No entanto, a abordagem também levanta questões sobre segurança de dados, gestão de autorizações e o impacto mais amplo de incorporar conhecimento classificado em sistemas de IA.