Google Assina Acordo de Inteligência Artificial com o Pentágono Amidst Revolta de Funcionários

Google Signs Pentagon AI Deal Amid Employee Revolt

Pontos principais

  • A Google assinou um contrato classificado que permite ao Pentágono usar seus modelos de IA para qualquer propósito governamental legítimo.
  • O acordo inclui linguagem que proíbe o uso para vigilância em massa doméstica e armas autônomas sem supervisão humana.
  • Mais de 600 funcionários da Google assinaram uma carta aberta pedindo ao CEO Sundar Pichai que recuse o contrato classificado.
  • Os funcionários citam preocupações sobre armas autônomas letais, vigilância em massa e falta de transparência em projetos classificados.
  • O Pentágono se recusou a comentar sobre o acordo ou a crítica dos funcionários.
  • A posição da Google reflete uma mudança em relação aos princípios de IA anteriores que proibiam certas tecnologias prejudiciais.
  • A controvérsia revive memórias dos protestos do Project Maven em 2018, onde a Google também enfrentou reação dos funcionários.

A Google entrou em um acordo classificado com o Departamento de Defesa dos EUA que permite ao Pentágono usar os modelos de inteligência artificial da empresa para "qualquer propósito governamental legítimo", incluindo tarefas militares sensíveis. A medida ocorre apesar de uma carta aberta assinada por mais de 600 funcionários da Google que pedem ao CEO Sundar Pichai que recuse o contrato, citando preocupações sobre armas autônomas letais e vigilância em massa. A Google afirma que o acordo inclui salvaguardas contra a vigilância em massa doméstica e armas autônomas sem supervisão humana, enquanto o Pentágono se recusou a comentar.

A Google anunciou um novo contrato classificado que concede ao Departamento de Defesa dos EUA acesso aos modelos de inteligência artificial da empresa para "qualquer propósito governamental legítimo". O acordo, relatado pela The Information, expande a participação da Google em projetos de segurança nacional, permitindo que o Pentágono implante as ferramentas de IA da empresa em aplicações militares sensíveis. Em troca, a Google ajudará o Departamento de Defesa a ajustar configurações de segurança e filtros a pedido da agência e manterá uma posição de que sua tecnologia não deve ser usada para vigilância em massa doméstica ou armas autônomas sem supervisão humana adequada.

Os funcionários da Google reagiram rapidamente. Mais de 600 membros da equipe assinaram uma carta aberta endereçada ao CEO Sundar Pichai, exigindo que a empresa recuse-se a fornecer seus sistemas de IA para cargas de trabalho classificadas. O petition argumenta que os engenheiros da Google, que trabalham em estreita colaboração com a tecnologia, têm o dever de prevenir seus "usos mais antiéticos e perigosos". Os signatários citaram armas autônomas letais e vigilância em massa como principais preocupações, mas alertaram que o trabalho classificado muitas vezes ocorre sem a transparência necessária para que os funcionários intervenham.

A reação ecoa os protestos do Project Maven em 2018, quando milhares de funcionários da Google saíram em protesto contra um programa do Pentágono que usava IA para analisar imagens de drones. Na época, a Google eventualmente optou por não renovar o contrato. O acordo atual, no entanto, marca uma mudança: a Google relaxou a linguagem em seus princípios de IA que anteriormente proibiam a empresa de perseguir tecnologias prováveis de causar dano geral, armas ou certas ferramentas de vigilância. Em um post de blog de fevereiro, o CEO da DeepMind, Demis Hassabis, e o vice-presidente sênior James Manyika enfatizaram que as democracias devem liderar o desenvolvimento de IA e que as empresas e os governos devem colaborar para construir IA que proteja as pessoas, promova o crescimento e apoie a segurança nacional.

A resposta pública da Google enquadrava o acordo como uma "abordagem responsável" para apoiar a segurança nacional. Um porta-voz da empresa disse à CNET que a Google permanece comprometida com a posição de que a IA não deve ser usada para vigilância em massa doméstica ou armas autônomas sem supervisão humana, e que fornecer acesso à API sob práticas comerciais padrão está alinhado com esse compromisso. O Pentágono se recusou a comentar sobre os detalhes do contrato ou a crítica dos funcionários.

Dentro da Google, a resposta foi pessoal, bem como profissional. Andreas Kirsch, um pesquisador da DeepMind, postou no X que se sente "incredivelmente envergonhado" do acordo, refletindo a profundidade da dissidência entre o pessoal técnico da empresa. A carta aberta conclui com um apelo direto a Pichai: "Hoje, chamamos você, Sundar, a agir de acordo com os valores nos quais esta empresa foi construída, e recuse-se a trabalhar com cargas de trabalho classificadas".

O episódio destaca uma tensão crescente entre as empresas de tecnologia ansiosas para atender aos clientes do governo e uma força de trabalho cada vez mais sensível às implicações éticas de seu trabalho. À medida que os sistemas de IA se tornam mais poderosos e suas aplicações mais opacas, os funcionários estão exigindo uma supervisão mais clara e salvaguardas mais fortes. Se a Google ajustará ou se retirará do acordo permanece incerto, mas o episódio já reacendeu um debate que começou com o Project Maven e não mostra nenhum sinal de desaparecer.

#Google#Pentágono#Inteligência Artificial#Segurança Nacional#Protesto de Funcionários#Contrato Classificado#Ética de IA#Project Maven#Indústria de Tecnologia#Departamento de Defesa

Também disponível em:

Google Assina Acordo de Inteligência Artificial com o Pentágono Amidst Revolta de Funcionários | AI News