A OpenAI está testando secretamente um novo sistema de roteamento de segurança no ChatGPT. Esse sistema foi confirmado pelo responsável pelo ChatGPT, Nick Turley, e é capaz de redirecionar automaticamente as perguntas dos usuários para diferentes modelos de linguagem, dependendo do tema da conversa. Quando a conversa envolve "assuntos sensíveis ou emocionais", o sistema intervém automaticamente, enviando as perguntas do usuário para um modelo mais rigoroso, como o GPT-5 ou sua variante especializada "GPT-5-Chat-Safety".
Essa troca de modelos ocorre silenciosamente, sem que o usuário receba qualquer notificação; apenas quando perguntado especificamente é possível descobrir isso. Embora a OpenAI tenha descrito isso em seu blog de setembro como uma medida de segurança para lidar com "momentos extremamente dolorosos", uma revisão técnica do novo sistema de roteamento (realizada pela equipe Lex) revelou que até mesmo prompts inofensivos relacionados a emoções ou personalização são redirecionados. Além disso, qualquer pergunta sobre o próprio papel ou consciência do modelo também aciona esse redirecionamento automático. Um usuário registrou essa situação e obteve confirmação de outros usuários.
Além disso, parece haver um segundo modelo de roteamento chamado "gpt-5-at-mini", especialmente destinado a lidar com prompts que podem envolver conteúdo ilegal.

Alguns usuários expressaram insatisfação com a falta de transparência da OpenAI, considerando que isso tem um tom de superioridade e que confunde os limites entre segurança infantil e restrições normais. Isso representa um problema criado por si própria pela OpenAI. Inicialmente, o ChatGPT foi projetado como um parceiro de conversa empático, interagindo com os usuários de forma "humana". Essa abordagem promoveu sua rápida adoção, mas também levou alguns usuários a desenvolverem fortes laços emocionais com o chatbot.
No início da primavera de 2025, a atualização do GPT-4o intensificou esse vínculo emocional, gerando até mesmo sentimentos de autolesão, o que levou a OpenAI a recolher a atualização. Quando o GPT-5 foi lançado, os usuários reclamaram que o tom era "muito frio", e a OpenAI teve que ajustar novamente o modelo, tornando-o "mais quente".
A constante luta entre "humanização" e segurança expõe um problema profundo: a capacidade dos modelos de linguagem em compreender intenções e identidades dos usuários ainda não é suficientemente precisa, o que pode continuar gerando controvérsias.





