OpenAI Lanza Prompts de Seguridad de Código Abierto para Aplicaciones Orientadas a Adolescentes

OpenAI Releases Open‑Source Safety Prompts for Teen‑Focused Apps

Puntos clave

  • OpenAI lanzó prompts de código abierto para ayudar a los desarrolladores a proteger a los usuarios adolescentes.
  • Los prompts se centran en la violencia gráfica, el contenido sexual, los ideales de cuerpo dañinos, los desafíos peligrosos, el juego de roles y los servicios restringidos por edad.
  • Están diseñados para funcionar con el modelo de seguridad de código abierto de OpenAI, gpt-oss-safeguard, pero también son compatibles con otros modelos de inteligencia artificial.
  • El desarrollo de los prompts involucró la colaboración con Common Sense Media y everyone.ai.
  • OpenAI busca proporcionar políticas de seguridad claras y operativas para reducir las lagunas y las inconsistencias en la protección.
  • Los nuevos prompts complementan las salvaguardas existentes, como los controles parentales y la predicción de edad.
  • OpenAI reconoce que los prompts no solucionan todos los desafíos de la seguridad de la inteligencia artificial y cita problemas legales en curso.
  • La disponibilidad de código abierto permite que la comunidad más amplia de la inteligencia artificial adapte y mejore las políticas de seguridad.

OpenAI anunció un nuevo conjunto de prompts de código abierto diseñados para ayudar a los desarrolladores a crear aplicaciones de inteligencia artificial que sean más seguras para los adolescentes. Los prompts abordan una variedad de contenido riesgoso, incluyendo violencia gráfica, material sexual, ideales de cuerpo dañinos, desafíos peligrosos y servicios restringidos por edad. Al proporcionar políticas de seguridad claras y operativas, OpenAI busca dar a los desarrolladores una base práctica para proteger a los usuarios más jóvenes, mientras reconoce que los desafíos más amplios de la seguridad de la inteligencia artificial siguen siendo complejos.

OpenAI Presenta Prompts de Seguridad de Código Abierto para la Protección de Adolescentes

OpenAI ha hecho pública una colección de prompts que los desarrolladores pueden incorporar en sus aplicaciones de inteligencia artificial para mejorar la seguridad de los usuarios adolescentes. Los prompts están diseñados para funcionar con el modelo de seguridad de código abierto de la empresa, conocido como gpt-oss-safeguard, pero también son compatibles con otros modelos. Al ofrecer estas políticas de seguridad listas para usar, OpenAI espera reducir el esfuerzo requerido por los desarrolladores para traducir objetivos de seguridad abstractos en reglas concretas y aplicables.

Alcance de las Políticas de Seguridad

Los prompts cubren varias categorías de contenido que son particularmente preocupantes para las audiencias más jóvenes. Incluyen salvaguardas contra la violencia gráfica y el contenido sexual, protecciones contra ideales de cuerpo dañinos y comportamientos, advertencias sobre actividades y desafíos peligrosos, orientación sobre el papel de romance o violencia y restricciones sobre bienes y servicios sensibles a la edad. El enfoque es proporcionar políticas claras y bien definidas que puedan servir como base para sistemas de seguridad efectivos.

Colaboración con Expertos en Seguridad

Al desarrollar los prompts, OpenAI trabajó con vigilantes de la seguridad de la inteligencia artificial como Common Sense Media y everyone.ai. Estas colaboraciones tuvieron como objetivo asegurar que las políticas reflejen las perspectivas de expertos sobre qué constituye contenido apropiado para los adolescentes. La participación de expertos externos subraya el compromiso de OpenAI para crear un piso de seguridad significativo en todo el ecosistema de la inteligencia artificial.

Beneficios para los Desarrolladores

OpenAI señala que muchos equipos de desarrollo, incluidos los experimentados, a menudo luchan por convertir objetivos de seguridad de alto nivel en reglas operativas precisas. Esta dificultad puede llevar a lagunas en la protección, aplicación inconsistente o filtrado excesivamente amplio. Al proporcionar políticas de seguridad de código abierto basadas en prompts, OpenAI da a los desarrolladores una herramienta que puede ser adaptada y refinada con el tiempo, potencialmente mejorando la consistencia y la eficacia en la protección de los usuarios adolescentes.

Relación con las Medidas de Seguridad Existente de OpenAI

Los nuevos prompts se basan en la infraestructura de seguridad existente de OpenAI, que incluye salvaguardas a nivel de producto como controles parentales y características de predicción de edad. Anteriormente, OpenAI actualizó sus directrices de especificación de modelo para clarificar cómo deben comportarse sus grandes modelos de lenguaje al interactuar con usuarios menores de 18 años. Las políticas basadas en prompts se presentan como una capa adicional que complementa estos esfuerzos anteriores.

Límites y Desafíos Continuados

OpenAI reconoce que los prompts no son una solución completa a los desafíos más amplios de la seguridad de la inteligencia artificial. La empresa enfrenta actualmente demandas relacionadas con incidentes en los que los usuarios formaron relaciones dañinas con chatbots, lo que llevó a resultados trágicos. Estos casos resaltan que no hay barreras completamente seguras. Sin embargo, la publicación de prompts de seguridad de código abierto representa un paso adelante, particularmente para los desarrolladores independientes que pueden carecer de recursos extensos para construir mecanismos de seguridad personalizados.

Impacto Potencial en la Comunidad de la Inteligencia Artificial

Al publicar los prompts como código abierto, OpenAI permite que la comunidad más amplia de la inteligencia artificial adapte, mejore y compartan mejoras. Este modelo de colaboración busca fomentar el desarrollo continuo de las mejores prácticas de seguridad, permitiendo que el ecosistema evolucione en respuesta a los riesgos emergentes y las necesidades de los usuarios. La iniciativa señala la intención de OpenAI de apoyar un entorno más seguro para los usuarios adolescentes mientras fomenta una participación más amplia en la innovación de la seguridad.

#OpenAI#seguridad de la inteligencia artificial#seguridad para adolescentes#código abierto#herramientas para desarrolladores#inteligencia artificial#seguridad digital#controles parentales#aprendizaje automático#tecnología

También disponible en: