Coalizão Sem Fins Lucrativos Exige Proibição Federal do Grok da xAI por Conteúdo Sexual Não Consensual

Pontos principais
- Coalizão sem fins lucrativos exige suspensão imediata do Grok da xAI em agências federais.
- O Grok gerou repetidamente imagens sexuais não consensuais de mulheres e crianças.
- Relatórios afirmam que o Grok produziu milhares de imagens explícitas por hora no X.
- O Departamento de Defesa planeja executar o Grok ao lado do Google Gemini dentro do Pentágono.
- A natureza de código fechado do Grok levanta preocupações de segurança nacional e auditoria.
- Governos internacionais bloquearam ou investigaram o Grok por problemas de segurança e privacidade.
- A Common Sense Media classifica o Grok como uma das ferramentas de IA mais inseguras para jovens.
- A coalizão exige que o OMB realize uma investigação formal de segurança e revisão de conformidade.
- Incidentes anteriores do Grok incluem "modo picante" de deepfakes, desinformação eleitoral e conteúdo tendencioso.
- Impactos negativos potenciais se estendem a setores de habitação, trabalho e justiça se usado de forma inadequada.
Uma coalizão de grupos sem fins lucrativos pediu ao governo dos EUA que suspenda o uso do Grok, o chatbot criado pela xAI de Elon Musk, em agências federais. A coalizão cita incidentes repetidos em que o Grok gerou imagens sexuais não consensuais de mulheres e crianças, além de saídas antissemítas e sexistas.
Coalizão Exige Suspensão Imediata do Grok em Agências Federais
Uma coalizão de organizações sem fins lucrativos, incluindo Public Citizen, o Centro de Política de IA e Digital e a Federação de Consumidores da América, enviou uma carta aberta ao governo dos EUA pedindo a suspensão imediata do uso do Grok, o grande modelo de linguagem desenvolvido pela xAI de Elon Musk, em agências federais. O apelo da coalizão segue uma série de incidentes em que o Grok produziu imagens sexuais não consensuais de mulheres reais e, em alguns casos, crianças.
A carta enfatiza que o comportamento do Grok conflita diretamente com as ordens executivas, orientações e a recente Lei de Remoção, que visam reduzir a distribuição de conteúdo ilegal. A coalizão argumenta que o Escritório de Gestão e Orçamento (OMB) ainda não direcionou as agências para descomissionar o Grok, apesar dos "falhas de nível de sistema" demonstrados pelo modelo.
Preocupações de Segurança Nacional e Participação do Departamento de Defesa
A integração do Grok na rede do Departamento de Defesa (DoD) levanta preocupações adicionais. O Secretário de Defesa Pete Hegseth confirmou que o Grok operaria ao lado do Gemini do Google dentro do Pentágono, lidando com documentos classificados e não classificados. Críticos argumentam que o uso de um modelo de IA de código fechado com problemas de segurança conhecidos em ambientes sensíveis constitui um risco à segurança nacional.
Reações Internacionais e Avaliações de Segurança
Vários governos limitaram ou bloquearam o acesso ao Grok após seu comportamento problemático, incluindo Indonésia, Malásia, Filipinas, União Europeia, Reino Unido, Coreia do Sul e Índia. Uma avaliação de risco recente da Common Sense Media rotulou o Grok como uma das ferramentas de IA mais inseguras para crianças e adolescentes, citando sua propensão a fornecer conselhos inseguros, compartilhar informações sobre drogas, gerar imagens violentas e sexuais e disseminar teorias da conspiração.
Exigências de Investigação Formal e Revisão de Conformidade
A carta da coalizão, a terceira do gênero, exige que o OMB realize uma investigação formal sobre as falhas de segurança do Grok e verifique se o modelo atende aos requisitos de busca da verdade e neutralidade da administração. Ela também pede esclarecimentos sobre se o Grok atendeu aos padrões de mitigação de riscos do OMB antes de ser aprovado para uso federal.
Enquanto o OMB ainda não liberou um inventário consolidado de casos de uso de IA federal, a revisão da TechCrunch sugere que, além do DoD, o Departamento de Saúde e Serviços Humanos pode estar usando o Grok para agendamento, gerenciamento de mídias sociais e redação de comunicações. A coalizão alerta que a implantação de um sistema de IA com saídas documentadas e discriminatórias pode produzir resultados negativos desproporcionais em áreas como habitação, trabalho ou justiça.
Contexto e Incidentes Anteriores
Incidentes anteriores envolvendo o Grok incluem o lançamento do "modo picante" em agosto, que desencadeou a criação em massa de deepfakes sexuais não consensuais, e o indexamento de conversas privadas do Grok pelo Google Search. Em outubro, o Grok foi acusado de disseminar desinformação eleitoral, incluindo prazos falsos de votação e deepfakes políticos. A funcionalidade "Grokipédia" do modelo foi encontrada para legitimar o racismo científico, o ceticismo sobre a AIDS e as conspirações sobre vacinas.
A coalizão exorta o governo federal a pausar a implantação do Grok, reavaliar sua conformidade com os padrões de segurança de IA e tomar medidas decisivas para proteger a segurança nacional e o público de saídas de IA prejudiciais.