OpenAI Presenta Plan de Seguridad para Menores con Grupos de Defensa y Fiscales Generales Estatales

Puntos clave
- OpenAI lanzó un plan de política de seguridad infantil desarrollado con Thorn, NCMEC y la Alianza de Fiscales Generales.
- El plan pide que todos los 50 estados y el Distrito de Columbia criminalicen el material de abuso sexual infantil generado por inteligencia artificial.
- Las recomendaciones incluyen salvaguardias legales más fuertes, estatutos de deepfakes actualizados y reglas de responsabilidad más claras.
- Las mejoras técnicas se centran en guardias más estrictas y nuevas herramientas para detectar contenido ilícito generado por inteligencia artificial.
- Las tuberías de reporte más rápidas al Centro Nacional para Menores Desaparecidos y Explotados se enfatizan.
- La iniciativa sigue a demandas de alto perfil y fallos judiciales contra Meta y Google por una protección juvenil inadecuada.
- El incidente reciente de xAI Grok, que produjo millones de imágenes sexuales, subraya la urgencia de las medidas.
OpenAI lanzó un marco de política integral destinado a proteger a los menores de contenido dañino de inteligencia artificial. Desarrollado con los defensores de la seguridad infantil Thorn y el Centro Nacional para Menores Desaparecidos y Explotados, así como con la fuerza task de inteligencia artificial de la Alianza de Fiscales Generales, el plan recomienda salvaguardias legales más fuertes, guardias técnicas mejoradas y mecanismos de reporte más rápidos.
OpenAI anunció el miércoles un nuevo plan de política que apunta a uno de los desafíos más apremiantes de la era de la inteligencia artificial generativa: proteger a los niños de contenido ilícito y dañino. La empresa dijo que el plan fue elaborado junto con la organización sin fines de lucro de seguridad infantil Thorn, el Centro Nacional para Menores Desaparecidos y Explotados, y la fuerza task de inteligencia artificial de la Alianza de Fiscales Generales, liderada por el fiscal general de Carolina del Norte, Jeff Jackson, y el fiscal general de Utah, Derek Brown.
El documento describe una serie de recomendaciones diseñadas para fortalecer las leyes existentes y aumentar las salvaguardias técnicas. OpenAI ya emplea guardias que bloquean solicitudes ilegales o abusivas, pero la empresa reconoce que los usuarios determinados pueden sometimes eludir esas protecciones. Los casos judiciales recientes involucrando a Meta y Google, en los que los tribunales encontraron que las empresas fueron negligentes al no proteger a los usuarios jóvenes, han intensificado la presión sobre los desarrolladores de inteligencia artificial para demostrar medidas de seguridad concretas.
Un punto focal del plan es la lucha contra el material de abuso sexual infantil (CSAM). Si bien el CSAM precede a la inteligencia artificial, la tecnología ha acelerado la creación y distribución de este contenido. El plan cita un incidente reciente involucrando a xAI de Elon Musk, donde el modelo Grok generó aproximadamente 3 millones de imágenes sexuales en 11 días, incluyendo 23.000 representaciones de niños. Ese episodio desencadenó demandas de víctimas adolescentes y destacó la necesidad de herramientas de detección más robustas.
OpenAI y sus socios recomiendan actualizar los estatutos estatales que rigen los deepfakes y el CSAM generado por inteligencia artificial. Según un informe de 2025, 45 estados ya han criminalizado el CSAM creado por inteligencia artificial; el plan urge a los estados restantes, más el Distrito de Columbia, a adoptar leyes similares. También pide reglas de responsabilidad más claras para que las agencias de aplicación de la ley puedan procesar a los infractores incluso cuando las plataformas de inteligencia artificial bloquean la creación de material ilegal.
Las mejoras técnicas forman otro pilar de la estrategia. La empresa propone refinar las guardias existentes y desarrollar nuevas herramientas de detección capaces de distinguir la imagenería generada por inteligencia artificial de las fotos auténticas, una tarea dificultada por la realism de los modelos modernos. Las tuberías de reporte más rápidas, especialmente aquellas que canalizan incidentes al Centro Nacional para Menores Desaparecidos y Explotados, también se destacan como esenciales para una respuesta rápida.
Los expertos en políticas señalan que la coordinación entre las empresas de tecnología, los gobiernos estatales y federales, los cuerpos de aplicación de la ley y los grupos de defensa podría aumentar las posibilidades de éxito. Sin embargo, advierten que regular los modelos de inteligencia artificial sigue siendo un desafío en curso, y la efectividad de cualquier nueva regla dependerá de la aplicación y el cumplimiento consistentes de la industria.
El plan llega en un momento en que la legislación ha luchado por mantener el ritmo con la evolución rápida de la inteligencia artificial. El Acta de Retirar, firmada en 2025, sigue siendo una de las pocas medidas federales que abordan específicamente la imaginería íntima no consensual, incluyendo los deepfakes generados por inteligencia artificial. El plan de OpenAI busca complementar esas leyes llenando los vacíos a nivel estatal y proporcionando una hoja de ruta técnica para que las empresas sigan.
Al establecer un conjunto claro de recomendaciones, OpenAI espera demostrar una postura proactiva sobre la seguridad infantil y evitar las trampas que han plagado a otros gigantes de la tecnología. Si las reformas legales y técnicas propuestas serán adoptadas rápidamente sigue siendo visto, pero el compromiso público de la empresa marca un cambio notable hacia un desarrollo de inteligencia artificial más responsable.