OpenAI informa un aumento en los reportes de explotación infantil a NCMEC

Puntos clave
- OpenAI presentó aproximadamente 75,000 reportes a NCMEC en el primer semestre del año, un aumento en comparación con menos de 1,000 el año anterior.
- El aumento se alinea con nuevas características que permiten la carga de imágenes y un aumento en la actividad de los usuarios, especialmente entre los adolescentes.
- Se invirtieron fondos para aumentar la capacidad de la empresa para revisar y actuar sobre los reportes.
- Los controles parentales ahora permiten a los padres gestionar la configuración de los adolescentes, deshabilitar el modo de voz, la memoria y la generación de imágenes.
- El sistema puede marcar señales de autolesiones y notificar a los padres o a las autoridades cuando sea necesario.
- Los fiscales generales estatales y las agencias federales han intensificado la escrutinio de las plataformas de IA para la seguridad de los niños.
- OpenAI publicó un Plan de Seguridad para Adolescentes que describe los esfuerzos continuos de detección y presentación de informes de CSAM.
- Los informes futuros incluirán nuevos productos como la aplicación de video Sora.
OpenAI reveló que presentó aproximadamente 75,000 reportes al Centro Nacional para Niños Desaparecidos y Explotados durante el primer semestre del año, un aumento dramático en comparación con los menos de 1,000 reportes que presentó en el mismo período del año anterior. El aumento coincide con la implementación de nuevas características de producto que permiten la carga de imágenes y un aumento en la actividad de los usuarios, especialmente entre los adolescentes.
Aumento significativo en los reportes
OpenAI anunció que envió aproximadamente 75,000 reportes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en los primeros seis meses del año en curso. Esta cifra contrasta notablemente con los aproximadamente 950 reportes que la empresa presentó durante el mismo período del año anterior. La cantidad de reportes se ajusta estrechamente a la cantidad de contenido involucrado, con 74,500 piezas de material relacionadas con los reportes.
Factores que impulsan el aumento
La empresa atribuyó el aumento a varios cambios operativos. Cerca del final del año anterior, OpenAI invirtió en expandir su capacidad para revisar y actuar sobre los reportes, preparándose para el crecimiento continuo de los usuarios. Las nuevas superficies de producto que permiten la carga de imágenes y la creciente popularidad de las ofertas de OpenAI, incluida la aplicación ChatGPT, también contribuyeron a volúmenes de reportes más altos. OpenAI señaló que la plataforma ahora admite la carga de archivos, incluidas imágenes, y que el acceso a su API amplía la gama de contenido que los usuarios pueden generar.
Mejoras de seguridad y controles parentales
En respuesta a una mayor escrutinio, OpenAI lanzó una serie de herramientas centradas en la seguridad. Las actualizaciones recientes de ChatGPT introdujeron controles parentales que permiten a los padres vincular cuentas, ajustar configuraciones como el modo de voz, la memoria y la generación de imágenes, y optar por que su adolescente no participe en la capacitación del modelo. El sistema también puede marcar indicadores de autolesiones y, si es necesario, notificar a los padres o a las autoridades cuando se detecte una amenaza inminente. Estas medidas forman parte del esfuerzo más amplio de la empresa para brindar a las familias herramientas para gestionar la interacción de los adolescentes con la IA.
Contexto regulatorio y legislativo
El aumento en los reportes de OpenAI ocurre en medio de una creciente atención regulatoria. Una coalición de fiscales generales estatales envió una carta conjunta a varias empresas de IA, advirtiendo sobre el uso de la autoridad para proteger a los niños de productos de IA predatorios. El Comité Judicial del Senado de EE. UU. celebró una audiencia sobre los daños de los chatbots de IA, y la Comisión Federal de Comercio lanzó un estudio de mercado que incluye preguntas sobre la mitigación de impactos negativos en los niños. OpenAI también se ha comprometido con el Departamento de Justicia de California, acordando continuar con medidas de mitigación de riesgos para los adolescentes y otros usuarios.
Compromisos futuros
OpenAI publicó un Plan de Seguridad para Adolescentes que describe mejoras continuas en la detección de material de abuso sexual infantil (CSAM) y la presentación de informes de instancias confirmadas a autoridades como NCMEC. La empresa enfatizó que informa todas las instancias de CSAM, incluidas las cargas y solicitudes, en todos sus servicios. Si bien los datos recientes no incluyen yet informes relacionados con la aplicación de generación de video Sora recién lanzada, OpenAI indicó que sus protocolos de informes se extenderán a nuevas líneas de productos a medida que se vuelvan operativas.
En general, el aumento dramático en los informes de NCMEC refleja tanto una expansión de la base de usuarios de OpenAI como un esfuerzo concertado para mejorar la infraestructura de seguridad, lo que posiciona a la empresa para abordar las preocupaciones de protección infantil en medio de un panorama regulatorio en evolución.