OpenAI Proíbe GPT-5.5 de Mencionar Goblins e Criaturas Semelhantes

Pontos principais
- OpenAI lançou o código-fonte da CLI Codex, expondo um prompt de sistema de 3.500 palavras para o GPT-5.5.
- O prompt proíbe explicitamente menções a goblins, gremlins, guaxinins, trolls, ogros, pombos e criaturas semelhantes a menos que sejam diretamente relevantes.
- Prompts de modelos anteriores não incluíam essa restrição, indicando uma resposta a reclamações recentes de usuários sobre referências fora do assunto a criaturas de fantasia.
- O funcionário da OpenAI, Nick Pash, disse que a regra é uma salvaguarda técnica, não um golpe de marketing.
- O CEO da OpenAI, Sam Altman, brincou sobre o "momento goblin", reconhecendo a reação pública.
OpenAI lançou o código-fonte da interface de linha de comando Codex, revelando um prompt de sistema de 3.500 palavras para o recém-lançado GPT-5.5. O prompt proíbe explicitamente o modelo de falar sobre goblins, gremlins, guaxinins, trolls, ogros, pombos ou qualquer outra criatura, a menos que a consulta do usuário seja diretamente relevante.
OpenAI publicou o código-fonte da interface de linha de comando (CLI) Codex no GitHub na semana passada, tornando público um conjunto de instruções básicas que regem o comportamento de seu modelo de linguagem mais recente, o GPT-5.5. O prompt de 3.500 palavras contém uma série de regras operacionais, que variam desde o mundano - como evitar emojis ou travessões, a menos que o usuário peça - até uma proibição surpreendente: o modelo nunca deve discutir goblins, gremlins, guaxinins, trolls, ogros, pombos ou qualquer outro animal ou criatura, a menos que a solicitação seja "absoluta e inequivocamente relevante" para a consulta do usuário.
Por que a nova cláusula é importante
Versões anteriores dos prompts do sistema da OpenAI não incluíam a proibição relacionada a goblins. A aparição repentina da cláusula sugere que a empresa está abordando um problema específico que surgiu com o GPT-5.5. Usuários das redes sociais têm postado reclamações de que o modelo está constantemente se desviando para criaturas de fantasia, especialmente goblins, mesmo quando a conversa é irrelevante. Ao codificar uma restrição, a OpenAI visa manter o modelo no assunto e reduzir distrações que possam afetar a experiência do usuário ou aplicações downstream.
Resposta da OpenAI
Nick Pash, um engenheiro da Codex na OpenAI, respondeu ao反clamação pública no Twitter, enfatizando que a regra não é um golpe de marketing. "Isso não é um golpe de marketing", ele escreveu, reiterando que a diretiva é uma salvaguarda técnica. O CEO da empresa, Sam Altman, adicionou um comentário irônico, "Parece que a Codex está tendo um momento ChatGPT. Quero dizer, um momento goblin, desculpe", reconhecendo a atenção semelhante a um meme que a cláusula gerou.
O prompt também lembra ao modelo para não executar comandos git destrutivos - como git reset --hard ou git checkout -- - a menos que o usuário peça explicitamente. Isso reflete a esforço mais amplo da OpenAI para incorporar segurança e responsabilidade diretamente nas instruções operacionais do modelo, uma prática que se tornou padrão à medida que a tecnologia amadurece.
A decisão da OpenAI de compartilhar o arquivo de prompt completo, incluindo a proibição de goblins, reflete seu compromisso com a transparência. Desenvolvedores e pesquisadores agora podem ver exatamente como a empresa está moldando o comportamento do modelo no nível do código. Se a cláusula irá curar as referências indesejadas, ainda está para ser visto, mas a medida sinaliza que a OpenAI está disposta a intervir diretamente quando um padrão de conversa fora do assunto emerge.