Funcionários do Google e OpenAI Assinam Carta Aberta Exigindo Limites na Inteligência Artificial Militar

Pontos principais
- Quase mil funcionários do Google e OpenAI assinaram uma carta aberta sobre a IA militar.
- A carta pede às empresas que mantenham limites éticos claros para a IA em vigilância e armas autônomas.
- Ela referencia protestos de funcionários anteriores no Google sobre o Project Maven.
- O Pentágono rotulou a Anthropic como um "risco na cadeia de suprimentos" após se recusar a permitir a vigilância em massa ou armas autônomas.
- Os signatários incluem funcionários de empresas rivais, mostrando solidariedade entre empresas.
- Os trabalhadores visam influenciar a política corporativa sobre contratos de defesa e manter os Princípios de IA.
Quase mil engenheiros do Google e OpenAI assinaram uma carta aberta pedindo às suas empresas que rejeitem a pressão do Pentágono para expandir o uso militar da inteligência artificial. A carta, apresentada como um show de solidariedade, pede limites éticos claros para as aplicações de IA em vigilância e armas autônomas.
Trabalhadores Se Unem Sobre Preocupações com a IA Militar
Quase mil funcionários dos dois principais laboratórios de IA, Google e OpenAI, se uniram para assinar uma carta aberta que pede às suas empresas que resistam à pressão militar dos EUA para ampliar os usos permitidos da inteligência artificial. Os signatários apresentam sua mensagem como uma posição unificada, declarando que não serão divididos sobre o papel da IA na defesa.
Principais Pedidos e Enquadramento Ético
A carta pede limites claros para as tecnologias de IA que poderiam ser empregadas para vigilância ou armas autônomas. Ela pede às empresas que mantenham os limites éticos estabelecidos nos princípios de IA existentes e que resistam a qualquer tentativa de funcionários do governo de erosionar essas salvaguardas.
Contexto de Ações Governamentais Recentemente
O Pentágono recentemente rotulou a Anthropic, outra empresa de IA, como um "risco na cadeia de suprimentos" após a empresa se recusar a permitir que sua tecnologia fosse usada para vigilância em massa ou armas autônomas. Essa designação aumentou a preocupação entre os engenheiros que veem um padrão de pressão crescente sobre os desenvolvedores de IA para apoiar iniciativas de defesa.
Precedente Histórico no Google
A carta aberta ecoa o ativismo de funcionários anteriores no Google, onde milhares protestaram contra a participação da empresa no Project Maven, um programa do Pentágono que usava aprendizado de máquina para analisar imagens de drones. Após uma reação interna sustentada, o Google deixou que o contrato expirasse e publicou um conjunto de Princípios de IA que prometia não desenvolver tecnologias projetadas para causar danos ou permitir vigilância que violasse normas internacionais.
Solidariedade Entre Empresas
Notavelmente, a carta inclui signatários de empresas rivais, sublinhando um momento rarefeito de cooperação através de fronteiras competitivas. Os trabalhadores argumentam que o poder crescente da IA torna as decisões sobre seu uso demasiado consequenciais para serem tratadas como acordos comerciais rotineiros.
Potencial Impacto
Embora o efeito imediato da carta nas decisões corporativas permaneça incerto, ela fornece uma expressão clara e documentada da preocupação dos funcionários que as empresas não podem facilmente ignorar. Os signatários esperam que sua voz coletiva forme futuras políticas sobre o papel da IA na defesa e preserve os padrões éticos delineados nos princípios de IA anteriores.