OpenAI informa un aumento en las alertas de explotación infantil en medio de un creciente escrutinio de la IA

Puntos clave
- OpenAI presentó aproximadamente 75,000 informes de CyberTipline en el primer semestre de 2025, en comparación con menos de 1,000 el año anterior.
- Los informes cubren CSAM encontrado en cargas de usuarios, solicitudes de modelo y contenido generado en ChatGPT y servicios de API.
- NCMEC identificó un aumento del 1,325% en los informes de CSAM relacionados con IA generativa entre 2023 y 2024.
- 44 fiscales generales estatales enviaron una carta conjunta advirtiendo a las empresas de IA que protejan a los niños de los productos de IA depredadores.
- OpenAI y otras empresas de IA enfrentan demandas que alegan que sus chatbots contribuyeron a la muerte de menores.
- El Comité de Justicia del Senado de los EE. UU. celebró una audiencia sobre los daños de los chatbots de IA, y la FTC lanzó un estudio de mercado sobre los chatbots de compañía de IA.
- Los productos de IA próximos, como la herramienta de generación de video de OpenAI Sora, no se reflejan aún en los datos actuales de informes.
OpenAI reveló un aumento dramático en sus informes al CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados, enviando aproximadamente 75,000 informes en el primer semestre de 2025 en comparación con menos de 1,000 en el mismo período del año anterior.
Aumento significativo en los informes de CyberTipline
OpenAI reveló que en el primer semestre de 2025 presentó aproximadamente 75,027 informes al CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Esta cifra es casi idéntica al número de piezas de contenido distintas – alrededor de 74,559 – que los informes referenciaron. Por el contrario, la misma ventana de seis meses en 2024 vio a OpenAI presentar solo 947 informes que cubrían aproximadamente 3,252 piezas de contenido. Los datos subrayan un aumento masivo en el volumen de material de explotación infantil que la empresa está detectando y remitiendo a las autoridades.
Alcance de los informes y paisaje de productos
La política de OpenAI establece que se deben informar todos los casos de material de abuso sexual infantil (CSAM) que se encuentren, ya sea que el material se cargue directamente por un usuario o se genere a través de solicitudes de modelo. Los informes de la empresa cubren su aplicación de ChatGPT de cara al consumidor – donde los usuarios pueden cargar archivos, incluidas imágenes, y recibir texto o imágenes generados – así como sus ofertas de API más amplias que permiten a los desarrolladores integrar los modelos en servicios externos. Un producto de generación de video próximo, llamado Sora, se lanzó después del período de informes y, por lo tanto, no aparece en las cifras actuales de NCMEC.
IA generativa impulsa una tendencia más amplia
El aumento en los informes de OpenAI se alinea con un patrón más grande observado por NCMEC. El análisis del centro indica que los informes que involucran tecnologías de IA generativa aumentaron aproximadamente un 1,325 por ciento entre 2023 y 2024. Si bien otros laboratorios de IA importantes como Google han publicado sus propias estadísticas de CyberTipline, no han desglosado qué porción de esos informes está directamente relacionada con salidas de IA generativa.
Respuesta regulatoria y legislativa
La actividad de informes aumentada ha atraído un escrutinio intensificado de los formuladores de políticas. Una coalición de 44 fiscales generales estatales emitió una carta conjunta a varias empresas de IA – incluidas OpenAI, Meta, Character.AI y Google – advirtiendo que ejercerían toda la autoridad disponible para proteger a los niños de los "productos de inteligencia artificial depredadores". OpenAI y Character.AI también enfrentan demandas que alegan que sus chatbots desempeñaron un papel en las muertes de menores.
En el Senado de los Estados Unidos, el Comité de Justicia convocó una audiencia para examinar los daños asociados con los chatbots de IA. Al mismo tiempo, la Comisión Federal de Comercio lanzó un estudio de mercado de los chatbots de compañía de IA, investigando específicamente cómo las empresas están mitigando los impactos negativos en los niños. Estas acciones señalan un esfuerzo coordinado en los niveles federal y estatal para abordar los riesgos emergentes que plantea la IA generativa.
Implicaciones y próximos pasos
Los datos sugieren que a medida que las capacidades de IA se expanden, también crece el potencial de mal uso – incluida la creación y distribución de CSAM. El compromiso de OpenAI de informar cada encuentro con dicho material refleja un reconocimiento de responsabilidad a nivel de la industria. La atención regulatoria en curso, combinada con la disponibilidad pendiente de nuevas herramientas como Sora, probablemente dará forma a cómo los proveedores de IA equilibran la innovación con las salvaguardias de seguridad infantil en los meses siguientes.