IA impulsiona aumento de imagens de abuso sexual infantil, fiscalização tem dificuldades

IA impulsiona aumento de imagens de abuso sexual infantil, fiscalização tem dificuldades

Pontos principais

  • AI‑generated child sexual abuse material reports have more than doubled in two years.
  • The Internet Watch Foundation logged 8,029 AI‑created CSAM images and videos in 2025.
  • NCMEC received 1.5 million AI‑linked CSAM reports in 2025, up from 67,000 the year before.
  • Minnesota case: school employee used AI to digitally undress children, yielding 800 abuse images.
  • Law‑enforcement now must determine if depicted children are real, altered or fictional.
  • Offenders also use AI for manipulated photos and abusive chatbot conversations.
  • Automated moderation systems are overwhelmed by the surge, slowing response times.

A inteligência artificial gerativa está ampliando a produção de material de abuso sexual infantil, provocando um aumento acentuado nos relatórios para órgãos de fiscalização e agências de aplicação da lei. A Reuters encontrou relatórios de CSAM gerados por IA que mais do que dobraram em dois anos, enquanto a Internet Watch Foundation registrou 8.029 imagens e vídeos desse tipo em 2025 apenas. O National Center for Missing & Exploited Children recebeu 1,5 milhão de relatórios de CSAM vinculados à IA naquele ano, um aumento em relação aos 67.000 do ano anterior. Um caso em Minnesota envolvendo um funcionário de uma escola ilustrou como fotos comuns podem ser armadas, deixando os investigadores para desvendar se uma criança em uma imagem é real, alterada ou completamente fabricada.

A inteligência artificial gerativa está redesenhando o submundo sombrio do material de abuso sexual infantil (CSAM). Investigações recentes revelam um aumento acentuado em imagens e vídeos criados por IA, sobrecarregando plataformas, reguladores e grupos de segurança infantil que já estão esticados ao limite.

A Reuters relatou que relatórios de CSAM gerados por IA mais do que dobraram nos últimos dois anos. A Internet Watch Foundation (IWF) confirmou que identificou 8.029 imagens e vídeos de abuso sexual infantil criados por IA em 2025 apenas. Esses números se traduzem em um torrente de conteúdo que é mais difícil de detectar, verificar e remover.

Nos Estados Unidos, o National Center for Missing & Exploited Children (NCMEC) recebeu um total de 1,5 milhão de relatórios de CSAM vinculados à IA em 2025. Esse número é muito maior do que os 67.000 relatórios registrados no ano anterior e os 4.700 relatados em 2023. O aumento reflete não apenas mais conteúdo, mas também a crescente sofisticação das ferramentas de IA que podem produzir depictions realistas, frequentemente indistinguíveis, de abuso.

Os agentes da lei agora enfrentam uma camada adicional de complexidade. Determinar se uma criança retratada em uma imagem é uma vítima real, um sujeito digitalmente alterado ou uma figura completamente fabricada consome tempo valioso. Cada passo em falso atrasa a ação que poderia proteger uma criança em perigo imediato.

Um caso de alto perfil em Minnesota destaca a nova ameaça. William Michael Haslach, um monitor de almoço escolar e guarda de trânsito, alegadamente usou aplicações de IA para remover roupas de fotos que ele havia tirado de crianças no trabalho. Investigadores federais descobriram mais de 90 vítimas e quase 800 imagens de abuso geradas por IA em seus dispositivos. O caso mostra como fotografias comuns coletadas de mídias sociais podem se tornar o material bruto para manipulação ilícita de IA.

Além de imagens estáticas, os ofensores estão experimentando com outros formatos. Relatórios citam fotos manipuladas de crianças reais, bem como conversas de chatbot onde os perpetradores buscam conselhos de grooming ou simulam cenários abusivos. Esses híbridos textuais e visuais confundem ainda mais os sistemas de moderação automatizados, que agora têm que vasculhar um dilúvio de positivos falsos e dicas de baixa qualidade.

As ferramentas de moderação automatizadas, antes consideradas uma defesa de linha de frente, estão sendo sobrecarregadas. O volume maciço de conteúdo gerado por IA gera "dicas de lixo" que sobrecarregam as forças-tarefa que já estão lidando com recursos limitados. Cada flag errôneo ou peça de evidência perdida representa uma oportunidade perdida de intervir em uma situação de abuso em andamento.

Especialistas alertam que o problema apenas intensificará à medida que os modelos de IA se tornem mais acessíveis e fáceis de usar. Sem ação política decisiva, salvaguardas técnicas e respostas coordenadas da aplicação da lei, a internet pode ver um influxo ainda maior de material de abuso sintético, further erodindo a rede de proteção para as crianças.

#artificial intelligence#child sexual abuse material#CSAM#generative AI#online safety#law enforcement#NCMEC#Internet Watch Foundation#moderation#child protection

Também disponível em: