La inteligencia artificial alimenta el aumento de imágenes de abuso sexual infantil, la aplicación de la ley lucha

La inteligencia artificial alimenta el aumento de imágenes de abuso sexual infantil, la aplicación de la ley lucha

Puntos clave

  • AI‑generated child sexual abuse material reports have more than doubled in two years.
  • The Internet Watch Foundation logged 8,029 AI‑created CSAM images and videos in 2025.
  • NCMEC received 1.5 million AI‑linked CSAM reports in 2025, up from 67,000 the year before.
  • Minnesota case: school employee used AI to digitally undress children, yielding 800 abuse images.
  • Law‑enforcement now must determine if depicted children are real, altered or fictional.
  • Offenders also use AI for manipulated photos and abusive chatbot conversations.
  • Automated moderation systems are overwhelmed by the surge, slowing response times.

La inteligencia artificial generativa está amplificando la producción de material de abuso sexual infantil, lo que provoca un aumento significativo en los informes a los organismos de vigilancia y las agencias de aplicación de la ley. Reuters encontró que los informes de CSAM generados por IA aumentaron más del doble en dos años, mientras que la Fundación Internet Watch registró 8,029 imágenes y videos de este tipo en 2025 solo. El Centro Nacional para Niños Desaparecidos y Explotados recibió 1,5 millones de informes de CSAM vinculados a IA ese año, en comparación con los 67,000 del año anterior. Un caso en Minnesota involucró a un empleado de una escuela que utilizó IA para desvestir digitalmente a niños, lo que generó 800 imágenes de abuso.

La inteligencia artificial generativa está transformando el oscuro submundo del material de abuso sexual infantil (CSAM). Las investigaciones recientes revelan un aumento significativo en las imágenes y videos creados por IA, lo que sobrecarga a las plataformas, los reguladores y los grupos de seguridad infantil que ya estaban estirados al límite.

Reuters informó que los informes de CSAM generados por IA aumentaron más del doble en los últimos dos años. La Fundación Internet Watch (IWF) confirmó que identificó 8,029 imágenes y videos de abuso sexual infantil creados por IA en 2025 solo. Esos números se traducen en una avalancha de contenido que es más difícil de detectar, verificar y eliminar.

En Estados Unidos, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) recibió un total de 1,5 millones de informes de CSAM vinculados a IA en 2025. Esa cifra supera con creces los 67,000 informes registrados el año anterior y los 4,700 informes de 2023. El aumento refleja no solo más contenido, sino también la creciente sofisticación de las herramientas de IA que pueden producir representaciones realistas y a menudo indistinguibles de abuso.

Los agentes de la ley ahora enfrentan una capa adicional de complejidad. Determinar si un niño representado en una imagen es una víctima real, un sujeto alterado digitalmente o una figura completamente fabricada consume un tiempo valioso. Cada paso en falso retrasa la acción que podría proteger a un niño en peligro inmediato.

Un caso de alto perfil en Minnesota subraya la nueva amenaza. William Michael Haslach, un monitor de almuerzo y guardia de tráfico escolar, supuestamente utilizó aplicaciones de IA para desvestir digitalmente a niños en fotos que había tomado en el trabajo. Los investigadores federales descubrieron más de 90 víctimas y casi 800 imágenes de abuso generadas por IA en sus dispositivos. El caso muestra cómo las fotografías ordinarias recopiladas de las redes sociales pueden convertirse en material raw para la manipulación ilícita de IA.

Más allá de las imágenes estáticas, los delincuentes están experimentando con otros formatos. Los informes citan fotos manipuladas de niños reales, así como conversaciones de chatbot donde los perpetradores buscan asesoramiento sobre cómo cortejar o realizar escenarios de abuso. Estos híbridos textuales y visuales confunden aún más los sistemas de moderación automatizados, que ahora deben filtrar una avalancha de positivos falsos y consejos de baja calidad.

Las herramientas de moderación automatizadas, que antes se consideraban una defensa de primera línea, están siendo abrumadas. El volumen de contenido generado por IA produce "consejos de basura" que sobrecargan a las fuerzas task que ya están luchando con recursos limitados. Cada bandera errónea o pieza de evidencia perdida representa una oportunidad perdida para intervenir en una situación de abuso en curso.

Los expertos advierten que el problema solo empeorará a medida que los modelos de IA se vuelvan más accesibles y fáciles de usar. Sin una acción política decisiva, salvaguardas técnicas y respuestas coordinadas de la aplicación de la ley, es posible que internet vea un mayor influxo de material de abuso sintético, lo que erosionará aún más la red de protección para los niños.

#artificial intelligence#child sexual abuse material#CSAM#generative AI#online safety#law enforcement#NCMEC#Internet Watch Foundation#moderation#child protection

También disponible en: