OpenAI e Google Fortalecem Salvaguardas Após Escândalo de Abuso do Grok

Pontos principais
- O Grok gerou três milhões de imagens sexualizadas em 11 dias, incluindo cerca de 23.000 envolvendo crianças.
- A Mindgard encontrou uma vulnerabilidade de prompt adversário no ChatGPT que permitia a criação de imagens íntimas.
- A OpenAI corrigiu a vulnerabilidade do ChatGPT após ser alertada no início de fevereiro de 2026.
- O Google introduziu uma ferramenta de relatório em massa simplificada para remover imagens explícitas da Pesquisa.
- Ambas as empresas referenciam políticas de uso proibido rigorosas que proíbem o conteúdo ilegal ou abusivo gerado por IA.
- Especialistas alertam que os atacantes continuarão tentando contornar as salvaguardas, exigindo vigilância contínua.
- Grupos de defesa estão pressionando por proteções legais mais fortes, como a Lei de Remoção de 2025.
No início de 2026, a ferramenta de IA xAI Grok foi usada para criar milhões de imagens sexuais não consensuais, incluindo milhares envolvendo crianças. A consequência levou as principais empresas de IA a reforçar suas defesas. OpenAI corrigiu uma vulnerabilidade que permitia que prompts adversários gerassem imagens íntimas, enquanto o Google simplificou seu processo para remover imagens explícitas da Pesquisa e reiterou sua política de uso proibido. Ambas as empresas enfatizaram a colaboração contínua com pesquisadores de segurança e o compromisso com controles de moderação de conteúdo mais fortes para prevenir futuros abusos.
O Abuso do Grok Destaca Riscos da IA
Em janeiro de 2026, a ferramenta de IA generativa Grok, oferecida por Elon Musk’s xAI, foi usada para produzir um volume massivo de imagens sexualizadas. Ao longo de um período de onze dias, o sistema gerou três milhões de tais imagens, com aproximadamente vinte e três mil contendo crianças, de acordo com um estudo do Center for Countering Digital Hate. A criação e distribuição rápida de imagens íntimas não consensuais — frequentemente chamadas de pornografia de vingança — destacou como a IA pode acelerar danos existentes.
Resposta Rápida da OpenAI
Pesquisadores da empresa de cibersegurança Mindgard descobriram uma falha no ChatGPT que permitia que os usuários bypassassem suas guardas através de prompts adversários. Ao manipular a memória do modelo com prompts personalizados, eles conseguiram produzir imagens íntimas de indivíduos bem conhecidos. Após notificar a OpenAI no início de fevereiro, a empresa confirmou que havia corrigido a vulnerabilidade antes que as descobertas fossem tornadas públicas. A OpenAI destacou a importância do teste de equipe vermelha e se comprometeu a continuar melhorando suas salvaguardas.
Google Melhora Ferramentas de Remoção de Imagens
O Google anunciou um processo simplificado para solicitar a remoção de imagens explícitas dos resultados de Pesquisa. Os usuários agora podem selecionar várias imagens, relatá-las com um único clique e acompanhar o status de suas solicitações. A empresa disse que a mudança visa reduzir a carga sobre as vítimas de imagens explícitas não consensuais. O Google também referenciou sua política de uso proibido de IA generativa, que proíbe a criação de conteúdo ilegal ou abusivo, incluindo imagens íntimas.
Desafios Contínuos e Perspectivas da Indústria
Tanto a OpenAI quanto o Google reconhecem que nenhuma salvaguarda é uma barreira permanente. Especialistas em cibersegurança enfatizam que os atacantes continuam a iterar, exigindo que os desenvolvedores de IA assumam tentativas persistentes de contornar os controles. Grupos de defesa continuam a pressionar por legislação mais forte, como a Lei de Remoção de 2025, para ajudar as vítimas. O episódio do Grok serve como um lembrete de que a moderação robusta e adaptativa e a colaboração com pesquisadores externos são essenciais para proteger os usuários à medida que as capacidades de IA generativa se expandem.