OpenAI está probando secretamente un nuevo sistema de enrutamiento de seguridad en ChatGPT. Este sistema, confirmado por Nick Turley, responsable de ChatGPT, redirige automáticamente las consultas de los usuarios a diferentes modelos de lenguaje según el tema de la conversación. Cuando la conversación aborda temas "sensibles o emocionales", el sistema interviene automáticamente y envía la consulta del usuario a un modelo más estricto, como GPT-5 o su variante especializada "GPT-5-Chat-Safety".

Este cambio de modelos ocurre en silencio, sin notificación para el usuario, y solo se puede descubrir al preguntar específicamente. Aunque OpenAI lo describió en un blog de septiembre como una garantía para manejar "momentos extremadamente dolorosos", una revisión técnica del nuevo sistema de enrutamiento (realizada por el equipo Lex) muestra que incluso consultas inofensivas o personales emocionales también son redirigidas. Además, cualquier pregunta sobre el papel o la conciencia del modelo en sí mismo también activa este cambio automático. Un usuario registró este fenómeno y otros usuarios lo confirmaron.

Además, parece haber otro modelo de enrutamiento llamado "gpt-5-at-mini", diseñado específicamente para manejar consultas que puedan implicar contenido ilegal.

ChatGPT OpenAI inteligencia artificial (1)

Algunos usuarios expresan insatisfacción con la falta de transparencia de OpenAI, considerándola presuntuosa y confundiendo los límites entre la seguridad infantil y las limitaciones normales. Esta es una dificultad creada por OpenAI misma. Inicialmente, ChatGPT fue diseñado como un compañero de conversación empático, interactuando con los usuarios de manera "humana". Este enfoque ayudó a su rápida difusión, pero también provocó que algunos usuarios desarrollaran un fuerte apego emocional hacia el chatbot.

La actualización de GPT-4o en primavera de 2025 exacerbo este apego emocional, incluso generando emociones destructivas como el suicidio, lo que llevó a OpenAI a retirar la actualización correspondiente. Después de la publicación de GPT-5, los usuarios se quejaron de que su tono era "demasiado frío", y OpenAI tuvo que ajustar nuevamente el modelo para hacerlo "más cálido".

Esta situación constante entre "humanidad" y seguridad revela un problema profundo: la capacidad de los modelos de lenguaje para juzgar con precisión las intenciones y la identidad de los usuarios aún no es suficiente, lo cual podría seguir generando controversias.