Uma ilustração de um goblin com um símbolo de proibição por cima, representando a diretriz da OpenAI para o GPT não falar sobre criaturas fantasiosas

OpenAI: Por que o GPT-5.5 foi proibido de falar de goblins?

Por Pedro W. • 5 min de leitura

A OpenAI, um dos nomes mais quentes do planeta quando o assunto é inteligência artificial, parece ter uma birra particular com... goblins. E não só eles. Uma diretriz curiosíssima, destinada ao seu modelo mais recente, o GPT-5.5, instrui a IA a "nunca falar sobre goblins, gremlins, guaxinins, trolls, ogros, pombos, ou outros animais ou criaturas, a menos que seja absoluta e inequivocamente relevante para a consulta do usuário." Pois é, você leu certo. Goblins e pombos, lado a lado, na lista de proibições.

Essa ordem, no mínimo inusitada, veio à tona na semana passada, como parte do código-fonte aberto do Codex CLI da OpenAI, publicado no GitHub. Imagine a cena: milhões de linhas de código, algoritmos complexos, o futuro da IA, e lá está, repetida duas vezes em um conjunto de "instruções básicas" com mais de 3.500 palavras, essa peculiar proibição. Não é apenas uma nota de rodapé; é um elemento explícito na configuração operacional do modelo.

A luta contra a "fantasia inadvertida"

A diretriz anti-goblins está lado a lado com instruções mais esperadas, como "não usar emojis ou travessões a menos que explicitamente instruído" e, mais importante para desenvolvedores, "nunca usar comandos destrutivos como 'git reset --hard' ou 'git checkout --' a menos que o usuário tenha pedido claramente por essa operação." Isso mostra o esforço da empresa em polir a interação do modelo, garantindo que ele não saia do trilho de forma inesperada.

O que nos leva à grande questão: por que goblins? E gremlins? E guaxinins, de todas as coisas? O fato de que essa proibição específica não aparece em prompts de sistema para modelos anteriores, encontrados no mesmo arquivo JSON, sugere que a OpenAI está lidando com um problema novo e inesperado que surgiu com o GPT-5.5.

Parece que o modelo mais recente tinha um certo... apreço por criaturas fantasiosas. Usuários têm relatado nas redes sociais a estranha tendência do GPT em trazer goblins para conversas que não tinham absolutamente nada a ver com eles. É quase como se o modelo tivesse desenvolvido uma fixação, uma personalidade secreta de contar histórias de fantasia, mesmo quando a pergunta era sobre código ou cálculos matemáticos. Isso, claro, é um problema sério quando você está buscando uma IA altamente funcional e focada.

“Anecdotals evidences on social media show some users complaining about GPT's penchant for focusing on goblins in completely unrelated conversations in recent days.”

Isso não é apenas um capricho divertido da IA. Quando estamos falando de ferramentas que se tornam cada vez mais centrais no desenvolvimento de software e automação, a previsibilidade e a aderência ao tópico são cruciais. Um GPT que começa a dissertar sobre sociedades de trolls ou a dieta de pombos enquanto deveria estar depurando código Python pode ser hilário no Twitter, mas é um pesadelo para produtividade.

O desafio de controlar a criatividade da IA

O episódio dos goblins sublinha um desafio fundamental no desenvolvimento de modelos de linguagem grandes: a dificuldade em controlar a geração de conteúdo. Modelos como o GPT-5.5 são treinados em vastos volumes de texto da internet, o que lhes confere uma capacidade incrível de gerar respostas coerentes e criativas. No entanto, essa "criatividade" pode, às vezes, se manifestar de formas indesejadas.

A OpenAI, ao longo dos anos, tem implementado diversas camadas de controle e refinamento nos seus modelos. Inicialmente, o foco era evitar viés, conteúdo tóxico ou a geração de informações falsas. Agora, parece que a fronteira do controle se estende até mesmo a temas inocentes como criaturas fantásticas, quando eles surgem sem contexto. Isso acende um alerta sobre como até mesmo as direções mais sutis nos dados de treinamento ou nos parâmetros do modelo podem levar a comportamentos inesperados e difíceis de prever.

No Brasil, onde o uso de IA em desenvolvimento e negócios cresce exponencialmente, a confiabilidade desses modelos é um pré-requisito. Empresas de todos os portes estão integrando APIs de IA em seus produtos, do atendimento ao cliente à análise de dados. Um modelo que divaga sobre pombos quando deveria gerar um relatório financeiro é, no mínimo, contraproducente. A Vibe Coding do Brasil, por exemplo, preza pela eficiência e acurácia nas soluções de automação e programação.

Implicações para desenvolvedores e a comunidade

Para desenvolvedores que trabalham com ferramentas de IA, como o Codex CLI, a necessidade de diretrizes claras é evidente. A flexibilidade do GPT é uma bênção e uma maldição. Se, por um lado, ele pode sugerir código complexo e criativo, por outro, pode desviar a conversa para o lado errado sem um direcionamento firme.

A comunidade de código aberto se beneficia ao ver esses bastidores. Revelações como a dos goblins não são apenas curiosidades; elas oferecem insights sobre os desafios práticos de engenharia por trás de modelos de IA de ponta. Sugere que, por mais avançada que seja a tecnologia, a interação humano-máquina ainda exige uma afinação constante, e por vezes cômica.

Este cenário também reforça a importância das instruções de sistema, os famosos "prompts", que atuam como a Constituição interna de uma IA. Eles definem não só o que a IA deve fazer, mas também o que ela não deve fazer, moldando sua "personalidade" e seu comportamento em tempo real. A habilidade de escrever prompts eficazes está se tornando uma arte e uma ciência por si só, essencial para qualquer um que deseje extrair o máximo valor dessas ferramentas.

Em última análise, a saga dos goblins na OpenAI é um lembrete vívido de que a Inteligência Artificial, embora poderosa, ainda é um campo em evolução, cheio de surpresas e desafios inesperados. Ela nos mostra que, mesmo as máquinas mais inteligentes, precisam de limites – e, às vezes, esses limites são surprisingly específicos. Será que veremos no futuro prompts para evitar unicórnios ou gnomos? Só o tempo, e as análises da OpenAI, dirão.

Tags: Inteligência Artificial OpenAI GPT Codex Programação Engenharia de Prompt

Perguntas Frequentes

Por que o GPT-5.5 foi proibido de falar sobre goblins?

A proibição foi implementada porque usuários notaram que o modelo GPT-5.5 tinha uma tendência inesperada de incluir referências a goblins e outras criaturas fantasiosas em conversas que não tinham relação com esses temas, tornando a interação menos focada e profissional.

Onde essa diretriz foi divulgada?

A diretriz foi tornada pública como parte do código-fonte aberto do Codex CLI da OpenAI, disponível no GitHub, inserida nas "instruções básicas" para o GPT-5.5.

Essa proibição existe em modelos anteriores da OpenAI?

Não. Os prompts de sistema para modelos anteriores da OpenAI, presentes no mesmo arquivo, não contêm essa proibição específica, sugerindo que é um problema novo que surgiu com o GPT-5.5.

Qual a relevância dessa história para desenvolvedores?

Para desenvolvedores, essa curiosidade destaca o desafio de controlar a saída de modelos de IA e a importância das instruções de sistema (prompts) detalhadas para garantir que a IA se mantenha no tópico e evite desvios indesejados, impactando a produtividade e a confiabilidade de ferramentas de automação e programação.

Que tipos de criaturas a OpenAI proibiu o GPT-5.5 de mencionar?

A lista de criaturas proibidas inclui goblins, gremlins, guaxinins, trolls, ogros e pombos, entre outros animais ou criaturas, a menos que sejam "absoluta e inequivocamente relevantes" para a consulta do usuário.