CEO da OpenAI, Sam Altman, pede ao governo dos EUA e à Anthropic que reduzam as tensões sobre IA

Pontos principais
- OpenAI CEO Sam Altman urged the Pentagon and Anthropic to stop their escalating AI dispute.
- Anthropic refused to remove safeguards that would allow fully autonomous weapons or mass surveillance.
- The U.S. government labeled Anthropic a "supply‑chain risk" and barred federal use of its Claude model.
- Anthropic sued, claiming constitutional violations; a judge temporarily blocked the Pentagon’s actions.
- Altman argues AI’s geopolitical impact demands government oversight and collaborative governance.
- He expresses cautious trust in democratic institutions despite public skepticism of government.
- Altman warns that AI’s rapid growth outpaces regulatory and institutional capacity.
- The call for cooperation seeks a balance between national‑security needs and ethical safeguards.
Sam Altman, CEO da OpenAI, pediu ao Pentágono e à Anthropic que parem o crescente conflito sobre o uso de IA na segurança nacional. Em uma entrevista recente, Altman disse que o peso geopolítico da tecnologia exige supervisão governamental e uma abordagem colaborativa, alertando que a competição descontrolada pode comprometer tanto a segurança quanto a inovação.
O CEO da OpenAI, Sam Altman, disse a repórteres que os EUA devem superar a disputa em escalada com a Anthropic e encontrar uma maneira de cooperar na governança de inteligência artificial. A disputa começou quando funcionários do Pentágono buscaram uma versão do modelo Claude da Anthropic para aplicações militares, mas encontraram resistência após a empresa se recusar a remover salvaguardas que bloqueiam armas totalmente autônomas e vigilância em massa.
Washington respondeu com uma diretiva executiva que proibiu agências federais de usar a tecnologia da Anthropic e rotulou a empresa como "risco na cadeia de suprimentos". A Anthropic processou, alegando violações constitucionais, e um juiz federal temporariamente suspendeu as ações do Pentágono.
Altman, falando com a jornalista Laurie Segall, caracterizou o conflito como um sintoma de uma luta mais ampla sobre quem deve controlar o poder da IA. "Encontrem uma maneira de trabalhar juntos", disse ele, pedindo a ambos os lados que parem a escalada. Ele acrescentou que as apostas são "o bit de mais alto nível na geopolítica" e que a IA moldará futuras guerras, defesas cibernéticas e decisões de segurança nacional.
Ao contrário de alguns líderes de IA que veem o governo com desconfiança, Altman expressou uma confiança cautelosa nas instituições democráticas. Ele reconheceu a desconfiança pública, observando que muitos "não confiam que o governo siga a lei", mas argumentou que o impacto da tecnologia é demasiado consequente para ser deixado apenas para empresas privadas.
"O futuro do mundo e as decisões sobre os elementos mais importantes da segurança nacional devem ser feitas por meio de um processo democraticamente eleito", disse Altman. Ele alertou que o avanço rápido da IA está ultrapassando a capacidade dos governos, reguladores e até mesmo da maioria das pessoas de calibrar seus riscos.
As declarações de Altman vêm enquanto as empresas de IA continuam a lobbyar por uma regulamentação leve, enquanto promovem a promessa da tecnologia para missões de segurança nacional. Ele advertiu que a indústria não pode reivindicar inovação desenfreada e uma abordagem de mãos livres para a governança. "Se a IA é tão geopoliticamente consequente quanto todos insistem, então os governos vão querer ter um controle sobre o volante", disse ele.
O CEO da OpenAI também enfatizou que a colaboração não significa entregar o controle. "Não acho que funcione para nossa indústria dizer, \'Ei, esta é a tecnologia mais poderosa que a humanidade já construiu\', e então entregá-la sem supervisão", explicou Altman. Ele pediu por uma parceria equilibrada, onde as empresas ajudam o governo a proteger a infraestrutura crítica sem comprometer salvaguardas éticas.
Embora o apelo de Altman por cooperação possa não resolver as batalhas legais de imediato, ele sinaliza uma mudança em direção à busca por um terreno comum. A pressão do Pentágono por capacidades de IA, a resistência da Anthropic em remover recursos de segurança e o debate regulatório mais amplo provavelmente continuarão a ser pontos de discórdia à medida que os legisladores lidam com como integrar modelos poderosos em estratégias de defesa sem comprometer liberdades civis.