Recientemente, después de lanzar su nueva generación de modelos de IA GPT-5, OpenAI desencadenó un intenso debate sobre los derechos de los usuarios y la transparencia. Muchos usuarios expresaron su fuerte descontento por la repentina eliminación de varias opciones de modelos en ChatGPT, considerando que esto no solo debilita su experiencia de uso, sino que también les quita el control sobre el contenido de las conversaciones.
Un usuario publicó en Reddit una entrada furiosa indicando que canceló su suscripción debido a esta medida de OpenAI y expresó su decepción con la empresa. Señaló que cada modelo tiene usos específicos, como el GPT-4o para generar ideas creativas, el GPT-3 para resolver problemas lógicos, y el GPT-4.5 centrado en la escritura. Cuestionó a OpenAI por qué eliminó estas funciones sin avisar previamente a los usuarios.

Lo que más enfureció a los usuarios fue descubrir que cuando los usuarios envían contenido emocional, ChatGPT enruta secretamente la información a un modelo llamado GPT-5-Chat-Safety. Este modelo se activa sin informar al usuario y parece estar especializado en manejar contenido "de riesgo". El usuario Lex publicó los resultados de sus pruebas en redes sociales, señalando que el rendimiento del GPT-5-Chat-Safety es incluso peor que el original GPT-5, ya que responde brevemente y carece de humanidad.
Muchos usuarios reportaron que el GPT-5-Chat-Safety parece haberse convertido en el modelo predeterminado para manejar conversaciones emocionales, lo que ha generado acusaciones de "engaño" por parte de OpenAI. Consideran que esta práctica viola en cierta medida el derecho al conocimiento de los usuarios, especialmente en países como Australia, donde podría infringir leyes de protección al consumidor.
Aunque los directivos de OpenAI afirmaron que los usuarios serán informados sobre el modelo actual que están utilizando si lo preguntan explícitamente, esta respuesta no calmó las voces indignadas. A medida que la tecnología de IA avanza constantemente, cómo mantener la confianza de los usuarios mientras se persigue la innovación se ha convertido en un problema urgente para OpenAI.
Este incidente resalta claramente la demanda de los usuarios por transparencia y también sirve como una alerta para OpenAI. Encontrar un equilibrio entre el progreso tecnológico y los derechos de los usuarios será clave para su desarrollo futuro.






