OpenAI Presenta Plan de Seguridad para Menores para Combatir el Abuso Generado por IA

Puntos clave
- OpenAI presentó un Plan de Seguridad para Menores el martes, dirigido a combatir el abuso sexual infantil generado por IA.
- El plan fue desarrollado con el Centro Nacional para Menores Desaparecidos y Explotados, la Alianza de Fiscales Generales y los fiscales generales Jeff Jackson (Carolina del Norte) y Derek Brown (Utah).
- Tres áreas de enfoque: actualización de la legislación, mejora de la denuncia a las autoridades y salvaguardias incorporadas en los sistemas de IA.
- La Fundación Internet Watch reportó más de 8.000 casos de abuso sexual infantil generado por IA en el primer semestre de 2025, un aumento del 14% con respecto al año anterior.
- Los delincuentes utilizan la IA para crear imágenes explícitas falsas para extorsión sexual y mensajes de acoso convincentes.
- Demandas en California alegan que GPT-4o contribuyó a cuatro suicidios de jóvenes y tres casos de delirios graves y amenazantes para la vida.
- Medidas anteriores de OpenAI bloquean el contenido inapropiado para usuarios menores de 18 años y desalientan el consejo de autolesionismo.
- A principios de este año, OpenAI lanzó un plan de seguridad para adolescentes en la India.
OpenAI anunció un nuevo Plan de Seguridad para Menores el martes, dirigido a frenar el aumento del abuso sexual infantil generado por IA. Desarrollado con el Centro Nacional para Menores Desaparecidos y Explotados y varios fiscales generales estatales, el plan se centra en la detección más rápida, la mejora de la denuncia a las autoridades y la incorporación de salvaguardias dentro de los sistemas de IA.
San Francisco – OpenAI lanzó un Plan de Seguridad para Menores el martes, lo que constituye una respuesta directa al creciente número de casos de abuso sexual infantil habilitado por IA. La iniciativa, elaborada con la participación del Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), la Alianza de Fiscales Generales y los fiscales generales Jeff Jackson de Carolina del Norte y Derek Brown de Utah, se centra en tres pilares: actualizar la legislación para cubrir el abuso generado por IA, mejorar los canales de denuncia a las autoridades y incorporar salvaguardias preventivas en los modelos de la empresa.
El plan llega en un momento en que se registran estadísticas alarmantes de la Fundación Internet Watch (IWF). En el primer semestre de 2025, la IWF registró más de 8.000 casos de contenido de abuso sexual infantil producido por IA, un aumento del 14% con respecto al año anterior. Los delincuentes están utilizando herramientas generativas para fabricar imágenes explícitas para extorsión sexual y para crear mensajes de acoso convincentes, lo que amplía el panorama de amenazas para los menores.
El esfuerzo más reciente de OpenAI se basa en salvaguardias anteriores que prohibían la generación de contenido inapropiado para usuarios menores de 18 años, prohibían el fomento del autolesionismo y bloqueaban consejos que podrían ayudar a los jóvenes a ocultar comportamientos peligrosos. A principios de este año, la empresa también lanzó un plan de seguridad para adolescentes en la India, lo que subraya una estrategia global más amplia.
La oportunidad del anuncio es notable. Los formuladores de políticas, educadores y defensores de la seguridad infantil han intensificado la vigilancia de las plataformas de IA después de una serie de incidentes trágicos en los que jóvenes murieron por suicidio después de interactuar durante mucho tiempo con chatbots. El pasado noviembre, el Centro de Derechos de las Víctimas de los Medios Sociales y el Proyecto de Justicia Tecnológica presentaron siete demandas en los tribunales estatales de California. Las demandas alegan que OpenAI lanzó GPT-4o antes de que estuviera listo y que las características psicológicamente manipuladoras del modelo contribuyeron a cuatro suicidios y tres casos de delirios graves y amenazantes para la vida.
En respuesta, OpenAI afirma que el nuevo plan acelerará la identificación de material ilícito, garantizará que la inteligencia actionable llegue a los investigadores de manera oportuna y dotará a los socios de aplicación de la ley de mecanismos de denuncia más claros. Al incorporar salvaguardias directamente en sus sistemas de IA, la empresa espera interceptar contenido dañino antes de que llegue a los usuarios finales.
Los observadores del sector estarán atentos a cómo los legisladores incorporan las recomendaciones del plan en las leyes de protección infantil existentes. La colaboración con fiscales generales estatales sugiere una voluntad de dar forma a la política, pero la efectividad de las actualizaciones legales propuestas queda por verse en los tribunales.