OpenAI Garante Contrato com o Pentágono, enquanto a Anthropic Rejeita os Termos

Pontos principais
- A OpenAI anunciou um contrato com o Pentágono que, segundo a empresa, alinha com seus princípios de segurança.
- O acordo vincula o uso do modelo a leis existentes dos EUA, como a Quarta Emenda e a Lei de Vigilância de Inteligência Estrangeira.
- Críticos destacam a frase "qualquer uso legal" como permitindo uma aplicação governamental ampla.
- Salvaguardas técnicas, como classificadores, são incluídas, mas sua eficácia é questionada.
- A Anthropic recusou um contrato semelhante, foi rotulada como risco na cadeia de suprimentos e planeja contestar a designação.
- A reação da indústria está dividida, com apoio à posição da Anthropic sobre linhas vermelhas.
- A disputa levanta preocupações sobre interpretações legais e uso da IA em vigilância e armas.
A OpenAI anunciou um novo acordo com o Pentágono que, segundo a empresa, respeita seus princípios de segurança em relação à vigilância em massa e sistemas de armas autônomas. Críticos apontam que o acordo se baseia na frase "qualquer uso legal", o que, segundo eles, poderia permitir uma ampla utilização do governo da tecnologia. A Anthropic recusou um contrato semelhante, foi rotulada como risco na cadeia de suprimentos e recebeu apoio da indústria. A disputa destaca abordagens diferentes em relação à segurança da IA, conformidade legal e papel das salvaguardas técnicas em aplicações militares.
Acordo da OpenAI com o Pentágono
A CEO da OpenAI anunciou que a empresa havia chegado a um contrato com o Departamento de Defesa. A empresa enfatizou que seus dois princípios de segurança fundamentais — proibição de vigilância em massa nacional e exigência de responsabilidade humana no uso da força — são refletidos no acordo. De acordo com a OpenAI, o contrato vincula qualquer uso de seus modelos às leis existentes dos EUA, incluindo a Quarta Emenda, a Lei de Segurança Nacional de 1947, a Lei de Vigilância de Inteligência Estrangeira de 1978, a Ordem Executiva 12333 e as diretrizes relevantes do Departamento de Defesa.
A empresa também disse que implantaria salvaguardas técnicas, como classificadores que podem monitorar o comportamento do modelo, e que alguns funcionários receberiam autorizações de segurança para supervisionar os sistemas.
Críticos Questionam as Salvaguardas
Observadores da indústria e antigos funcionários da OpenAI argumentam que a dependência do acordo em "qualquer uso legal" efetivamente deixa o Pentágono livre para empregar a tecnologia para qualquer atividade que o governo considere legal. Eles observam que as agências de inteligência dos EUA historicamente interpretaram autoridades legais para permitir coleta extensiva de dados, incluindo vigilância em massa nacional. Críticos dizem que a linguagem sobre "uso não restrito", "generalizado" ou "aberto" é vaga e pode permitir opções para o militar.
Especialistas também questionam a eficácia das salvaguardas técnicas. Classificadores, explicam eles, não podem verificar se um humano revisou uma decisão antes de um ataque letal ou se uma consulta é parte de um programa de vigilância em massa. Como o contrato permite que o governo defina o que é legal, as salvaguardas poderiam ser anuladas se uma interpretação legal mudar.
Posição da Anthropic e Consequências
A Anthropic, uma empresa rival de IA, recusou-se a assinar um contrato semelhante que, segundo ela, proibisse especificamente a vigilância em massa e armas autônomas letais não supervisionadas. Após as negociações terem fracassado, o Pentágono classificou a Anthropic como um risco na cadeia de suprimentos, uma designação normalmente reservada para empresas estrangeiras com preocupações de cibersegurança. A Anthropic anunciou planos para contestar a classificação na justiça.
A discordância despertou apoio público para a Anthropic dentro da comunidade tecnológica, com figuras notáveis e usuários elogiando a decisão da empresa de manter suas linhas vermelhas.
Implicações para a IA e a Defesa
As abordagens contrastantes da OpenAI e da Anthropic ilustram um debate mais amplo sobre como as empresas de IA devem se engajar com clientes militares. Enquanto a OpenAI argumenta que aderir às leis atuais fornece proteção suficiente, os críticos alertam que os quadros legais podem mudar e podem não proteger adequadamente as liberdades civis ou prevenir o uso de armas autônomas sem supervisão humana.
A situação destaca a importância de linguagem contratual clara, salvaguardas técnicas robustas e escrutínio público contínuo à medida que a inteligência artificial se integra cada vez mais às operações de segurança nacional.