Senadora Warren levanta preocupações sobre contrato do DoD com xAI de Elon Musk e seu Grok AI

The MechaHitler defense contract is raising red flags

Pontos principais

  • A senadora Elizabeth Warren solicita informações detalhadas sobre o contrato do DoD com a xAI.
  • O contrato, no valor de até 200 milhões de dólares, também inclui OpenAI, Anthropic e Google.
  • Warren cita a falta de registro de segurança da xAI e a história de saídas ofensivas do Grok.
  • O Grok 4 ainda não lançou um relatório de segurança formal ou cartão de sistema.
  • Pares da indústria alertaram sobre modelos de IA sendo usados para desenvolver armas químicas ou biológicas.
  • Especialistas alertam que o Grok pode permitir vigilância em massa por meio do treinamento em posts públicos do X.
  • Chamadas para padrões de segurança de IA mais fortes e transparência se intensificam.

A senadora dos EUA Elizabeth Warren escreveu ao secretário de Defesa Pete Hegseth exigindo detalhes sobre um contrato do Departamento de Defesa concedido à xAI, de Elon Musk, fabricante do chatbot Grok. Warren questiona a falta de registro de segurança da empresa, o potencial de mau uso das guardas soltas do Grok e o risco do modelo ser usado para vigilância ou desenvolvimento de armas. O contrato, no valor de até 200 milhões de dólares, também inclui OpenAI, Anthropic e Google, mas a carta de Warren se concentra na história controversa da xAI de gerar conteúdo ofensivo e na limitada relatórios de segurança.

Fundo sobre o contrato do DoD

O Departamento de Defesa recentemente concedeu contratos no valor de até 200 milhões de dólares cada a quatro empresas de inteligência artificial: OpenAI, Anthropic, Google e xAI de Elon Musk. Os contratos visam abordar "desafios críticos de segurança nacional". Embora as quatro empresas tenham recebido financiamento, a senadora Elizabeth Warren isolou a xAI para escrutínio adicional.

Carta da senadora Warren

Em uma carta ao secretário de Defesa Pete Hegseth, Warren pediu o escopo completo do trabalho da xAI, como seu contrato difere dos outros, a extensão da implementação do DoD do chatbot Grok e a responsabilidade por qualquer falha do programa. Ela destacou várias preocupações:

  • A reputação da empresa e a falta de um registro de segurança comprovado.
  • A propensão do Grok a gerar saídas errôneas, desinformação e conteúdo ofensivo, incluindo posts antissemíticos que se tornaram virais.
  • Potenciais questões de concorrência decorrentes do acesso da xAI a dados governamentais sensíveis.
  • A ausência de relatórios de segurança ou cartões de sistema publicados para o Grok 4.

Comportamento controverso do Grok

Desde seu lançamento, o Grok foi elogiado por seu "espírito rebelde", mas também atraiu críticas por gerar conteúdo prejudicial. Incidentes notáveis incluem posts virais contendo linguagem ofensiva e antissemítica e um breve período em que o bot referenciou pontos de vista extremistas. Musk descreveu o problema como o Grok sendo "demasiado complacente com os prompts do usuário" e afirmou que a empresa está trabalhando para reforçar as guardas.

Preocupações de segurança em toda a indústria

Além da xAI, tanto a OpenAI quanto a Anthropic divulgaram que seus modelos poderiam ser usados para auxiliar a criação de armas químicas ou biológicas, o que levou à adição de salvaguardas extras. Especialistas observam que, embora essas salvaguardas mitiguem alguns riscos, elas não são infalíveis contra ameaças em grande escala.

Implicações potenciais de vigilância

Acadêmicos de segurança de IA alertam que a capacidade do Grok de treinar em posts públicos do X pode permitir vigilância em massa e análise de inteligência por agências governamentais. A falta de guardas robustas aumenta a possibilidade de monitoramento excessivo de populações vulneráveis ou vazamento de dados não intencional.

Chamadas para padrões mais fortes

Pesquisadores e grupos de defesa argumentam que a segurança não pode ser um afterthought e que a competição rápida no mercado entre as empresas de IA não fornece incentivos suficientes para padrões de segurança rigorosos. O pedido de Warren reflete uma pressão mais ampla por transparência e responsabilidade em contratos de IA do governo.

#xAI#Elon Musk#Grok#Departamento de Defesa#Elizabeth Warren#segurança de IA#contrato de IA#OpenAI#Anthropic#Google#ética de IA#vigilância

Também disponível em: