La barra de comandos Codex de OpenAI prohíbe a GPT-5.5 mencionar duendes y criaturas similares

Puntos clave
- OpenAI lanzó el código fuente de la interfaz de línea de comandos Codex, exponiendo una instrucción de sistema de 3,500 palabras para GPT-5.5.
- La instrucción prohíbe explícitamente mencionar duendes, duendecillos, mapaches, trolls, ogros, palomas y criaturas similares a menos que sean directamente relevantes.
- Las instrucciones de modelos anteriores no incluían esta restricción, lo que indica una respuesta a las quejas de los usuarios sobre referencias de fantasía fuera de tema.
- El empleado de OpenAI Nick Pash dijo que la regla es una salvaguarda técnica, no un truco publicitario.
- El director ejecutivo Sam Altman bromeó sobre el "momento de duendes", reconociendo la reacción del público.
OpenAI lanzó el código fuente de su interfaz de línea de comandos Codex la semana pasada, revelando una instrucción de sistema de 3,500 palabras para el recién estrenado GPT-5.5. Entre las instrucciones rutinarias, la instrucción prohíbe explícitamente al modelo hablar sobre duendes, duendecillos, mapaches, trolls, ogros, palomas o cualquier otra criatura a menos que la consulta del usuario lo haga directamente relevante. La restricción aparece dos veces en el documento y está ausente en las instrucciones para modelos anteriores, lo que sugiere que OpenAI está respondiendo a un aumento en las referencias fuera de tema a dichas criaturas. El personal de OpenAI dice que la regla es una salvaguarda técnica, no un truco publicitario.
OpenAI publicó el código fuente de la interfaz de línea de comandos Codex en GitHub la semana pasada, haciendo pública una serie de instrucciones base que rigen el comportamiento de su modelo de lenguaje más reciente, GPT-5.5. La instrucción de más de 3,500 palabras contiene una serie de reglas operativas, que van desde lo mundano, como evitar emojis o guiones largos a menos que el usuario lo solicite, hasta una prohibición llamativa: el modelo nunca debe discutir sobre duendes, duendecillos, mapaches, trolls, ogros, palomas o cualquier otro animal o criatura a menos que la solicitud sea "absoluta y unambiguamente relevante" para la consulta del usuario.
Por qué la nueva cláusula es importante
Las versiones anteriores de las instrucciones del sistema de OpenAI no incluían la prohibición relacionada con los duendes. La aparición repentina de la cláusula sugiere que la empresa está abordando un problema específico que surgió con GPT-5.5. Los usuarios de las redes sociales han estado publicando quejas de que el modelo se desvía hacia criaturas de fantasía, especialmente duendes, incluso cuando la conversación no está relacionada. Al codificar una restricción, OpenAI busca mantener al modelo en tema y reducir las distracciones que podrían afectar la experiencia del usuario o las aplicaciones posteriores.
Respuesta de OpenAI
Nick Pash, un ingeniero de Codex en OpenAI, respondió a la reacción pública en Twitter, enfatizando que la regla no es un truco publicitario. "Esto no es un truco publicitario", escribió, reiterando que la directiva es una salvaguarda técnica. El director ejecutivo de la empresa, Sam Altman, agregó un comentario irónico, "Parece que Codex está teniendo un momento ChatGPT. Quise decir un momento de duendes, lo siento", reconociendo la atención similar a un meme que ha generado la cláusula.
La instrucción también recuerda al modelo que no debe ejecutar comandos git destructivos, como git reset --hard o git checkout --, a menos que el usuario lo solicite explícitamente. Esto refleja el esfuerzo más amplio de OpenAI por incorporar la seguridad y la responsabilidad directamente en las instrucciones operativas del modelo, una práctica que se ha vuelto estándar a medida que la tecnología madura.
La decisión de OpenAI de compartir el archivo de instrucción completo, incluida la prohibición de duendes, refleja su compromiso con la transparencia. Los desarrolladores y investigadores ahora pueden ver exactamente cómo la empresa está moldeando el comportamiento del modelo a nivel de código. Si la cláusula curará las referencias no deseadas sigue siendo un tema de debate, pero el movimiento señala que OpenAI está dispuesta a intervenir directamente cuando surge un patrón de conversación fuera de tema.