Acordo da OpenAI com o Pentágono Levanta Preocupações Sobre Uso Militar e Vigilância Doméstica

Pontos principais
- A OpenAI assinou um novo contrato com o Departamento de Defesa dos EUA que pode permitir vigilância doméstica impulsionada por IA.
- A Anthropic perdeu um contrato de US$ 200 milhões do Pentágono após se recusar a apoiar usos de armas autônomas e vigilância.
- A OpenAI removeu sua proibição de 2023 sobre uso militar de seus modelos e se associou à empresa de defesa Anduril para fins de segurança nacional.
- O Pentágono acessou a tecnologia da OpenAI via plataforma Azure da Microsoft, contornando restrições anteriores de uso.
- Especialistas alertam que as regulamentações atuais estão atrasadas em relação aos avanços da IA, correndo o risco de violações de privacidade para cidadãos comuns.
- Pesquisadores da OpenAI dizem que a linguagem original do contrato deixou perguntas sem resposta sobre capacidades de vigilância novas.
- Ex-chefe da equipe de geopolítica da OpenAI destaca danos a civis e opacidade como principais preocupações.
A OpenAI entrou em um novo contrato com o Departamento de Defesa dos EUA que, segundo críticos, deixa espaço para que a tecnologia seja usada em vigilância doméstica em massa e armas autônomas. O acordo segue a perda de um contrato de US$ 200 milhões do Pentágono pela Anthropic após se recusar a permitir tais usos. Embora a OpenAI tenha removido uma proibição de 2023 sobre aplicações militares e assinado um acordo com a Anduril para fins de segurança nacional, especialistas alertam que as regulamentações atuais estão atrasadas em relação aos avanços da IA, correndo o risco de violações de privacidade para cidadãos comuns.
Contexto
A Anthropic, uma empresa de IA, foi rotulada como um risco de cadeia de suprimentos pelo Secretário de Defesa Pete Hegseth e subsequentemente perdeu um contrato de US$ 200 milhões do Pentágono após se recusar a permitir que seus modelos fossem usados para sistemas de armas autônomas e vigilância doméstica em massa. Esse desenvolvimento preparou o cenário para o mais recente engajamento da OpenAI com o Exército dos EUA.
Contrato da OpenAI com o Pentágono
A OpenAI assinou um novo acordo com o Departamento de Defesa que, de acordo com fontes internas, contém linguagem que poderia permitir o uso de seus modelos de inteligência artificial para vigilância doméstica e outros propósitos controversos. Anteriormente, em 2023, a OpenAI tinha uma cláusula de contrato que proibia o uso militar de seus modelos, mas funcionários divulgaram que o Pentágono acessou a tecnologia da OpenAI por meio de um arranjo da Microsoft-Azure que não estava sujeito às mesmas restrições.
Em 2024, a OpenAI removeu a proibição geral sobre aplicações militares de seus modelos e posteriormente entrou em um contrato com a contratante de defesa Anduril para desployar seus modelos para missões de segurança nacional. O CEO da OpenAI, Sam Altman, expressou publicamente apoio à posição da Anthropic contra o uso de IA para fins nefastos, mas o novo acordo parece deixar abertas vias semelhantes.
Lacunas Regulamentares e Riscos de Privacidade
As regulamentações atuais não acompanharam o ritmo dos avanços rápidos da IA, criando oportunidades para que as agências governamentais adquiram dados pessoais de corretores de dados e empreguem a IA para gerar perfis detalhados de cidadãos. Críticos argumentam que a linguagem do contrato não aborda novas maneiras pelas quais a IA poderia permitir vigilância legal, levantando preocupações sobre a opacidade do uso da IA militar e seu impacto na privacidade civil.
Reações de Especialistas
O pesquisador da OpenAI, Noam Brown, observou que a linguagem original do contrato deixou "perguntas legítimas sem resposta" sobre como a IA poderia ser usada para vigilância, e que a linguagem atualizada tenta abordar essas preocupações. A ex-chefe da equipe de geopolítica da OpenAI, Sarah Shoker, alertou que as pessoas comuns e os civis em zonas de conflito são os maiores perdedores, pois o design técnico e a opacidade das políticas impedem a compreensão dos efeitos da IA militar.
No geral, o acordo coloca a OpenAI sob escrutínio semelhante ao enfrentado pela Anthropic, destacando a tensão entre os objetivos de segurança nacional e a necessidade de salvaguardas robustas contra o mau uso de tecnologias de inteligência artificial.