Acordo da OpenAI com o Pentágono Levanta Preocupações Sobre Uso Militar e Vigilância Doméstica

OpenAI’s Pentagon Deal Raises Concerns Over Military Use and Domestic Surveillance

Pontos principais

  • A OpenAI assinou um novo contrato com o Departamento de Defesa dos EUA que pode permitir vigilância doméstica impulsionada por IA.
  • A Anthropic perdeu um contrato de US$ 200 milhões do Pentágono após se recusar a apoiar usos de armas autônomas e vigilância.
  • A OpenAI removeu sua proibição de 2023 sobre uso militar de seus modelos e se associou à empresa de defesa Anduril para fins de segurança nacional.
  • O Pentágono acessou a tecnologia da OpenAI via plataforma Azure da Microsoft, contornando restrições anteriores de uso.
  • Especialistas alertam que as regulamentações atuais estão atrasadas em relação aos avanços da IA, correndo o risco de violações de privacidade para cidadãos comuns.
  • Pesquisadores da OpenAI dizem que a linguagem original do contrato deixou perguntas sem resposta sobre capacidades de vigilância novas.
  • Ex-chefe da equipe de geopolítica da OpenAI destaca danos a civis e opacidade como principais preocupações.

A OpenAI entrou em um novo contrato com o Departamento de Defesa dos EUA que, segundo críticos, deixa espaço para que a tecnologia seja usada em vigilância doméstica em massa e armas autônomas. O acordo segue a perda de um contrato de US$ 200 milhões do Pentágono pela Anthropic após se recusar a permitir tais usos. Embora a OpenAI tenha removido uma proibição de 2023 sobre aplicações militares e assinado um acordo com a Anduril para fins de segurança nacional, especialistas alertam que as regulamentações atuais estão atrasadas em relação aos avanços da IA, correndo o risco de violações de privacidade para cidadãos comuns.

Contexto

A Anthropic, uma empresa de IA, foi rotulada como um risco de cadeia de suprimentos pelo Secretário de Defesa Pete Hegseth e subsequentemente perdeu um contrato de US$ 200 milhões do Pentágono após se recusar a permitir que seus modelos fossem usados para sistemas de armas autônomas e vigilância doméstica em massa. Esse desenvolvimento preparou o cenário para o mais recente engajamento da OpenAI com o Exército dos EUA.

Contrato da OpenAI com o Pentágono

A OpenAI assinou um novo acordo com o Departamento de Defesa que, de acordo com fontes internas, contém linguagem que poderia permitir o uso de seus modelos de inteligência artificial para vigilância doméstica e outros propósitos controversos. Anteriormente, em 2023, a OpenAI tinha uma cláusula de contrato que proibia o uso militar de seus modelos, mas funcionários divulgaram que o Pentágono acessou a tecnologia da OpenAI por meio de um arranjo da Microsoft-Azure que não estava sujeito às mesmas restrições.

Em 2024, a OpenAI removeu a proibição geral sobre aplicações militares de seus modelos e posteriormente entrou em um contrato com a contratante de defesa Anduril para desployar seus modelos para missões de segurança nacional. O CEO da OpenAI, Sam Altman, expressou publicamente apoio à posição da Anthropic contra o uso de IA para fins nefastos, mas o novo acordo parece deixar abertas vias semelhantes.

Lacunas Regulamentares e Riscos de Privacidade

As regulamentações atuais não acompanharam o ritmo dos avanços rápidos da IA, criando oportunidades para que as agências governamentais adquiram dados pessoais de corretores de dados e empreguem a IA para gerar perfis detalhados de cidadãos. Críticos argumentam que a linguagem do contrato não aborda novas maneiras pelas quais a IA poderia permitir vigilância legal, levantando preocupações sobre a opacidade do uso da IA militar e seu impacto na privacidade civil.

Reações de Especialistas

O pesquisador da OpenAI, Noam Brown, observou que a linguagem original do contrato deixou "perguntas legítimas sem resposta" sobre como a IA poderia ser usada para vigilância, e que a linguagem atualizada tenta abordar essas preocupações. A ex-chefe da equipe de geopolítica da OpenAI, Sarah Shoker, alertou que as pessoas comuns e os civis em zonas de conflito são os maiores perdedores, pois o design técnico e a opacidade das políticas impedem a compreensão dos efeitos da IA militar.

No geral, o acordo coloca a OpenAI sob escrutínio semelhante ao enfrentado pela Anthropic, destacando a tensão entre os objetivos de segurança nacional e a necessidade de salvaguardas robustas contra o mau uso de tecnologias de inteligência artificial.

#OpenAI#Pentágono#Ética da IA#IA militar#Vigilância#Anthropic#Privacidade de dados#Segurança nacional#Regulação da IA#Sam Altman

Também disponível em: