हाल ही में, ओपनएआई ने अपने भुगतान करने वाले उपयोगकर्ताओं के बीच एक बड़ा हल्ला मचा दिया, जब उसने अपने उन्नत मॉडल GPT-4 और GPT-5 को दो कम शक्ति वाले "गुप्त मॉडल" - gpt-5-chat-safety और gpt-5-a-t-mini में स्थानांतरित कर दिया, जिसके बारे में उपयोगकर्ताओं को पूर्व में बताए बिना। उपयोगकर्ता प्रतिक्रिया के अनुसार, जब वे भावनाओं, संवेदनशील विषयों या संभावित उल्लंघन के साथ संबंधित सामग्री इनपुट करते हैं, तो सिस्टम खुद इन फ़िल्टरिंग मॉडल में स्थानांतरित हो जाता है, जिसके परिणामस्वरूप जवाब की गुणवत्ता में महत्वपूर्ण कमी आ जाती है। इस व्यवहार ने बहुत से उपयोगकर्ताओं के अपने अधिकारों और विकल्पों के बारे में संदेह उत्पन्न कर दिए।
रिपोर्ट के अनुसार, ओपनएआई ने मॉडल बदलते समय उपयोगकर्ताओं को पूर्व में बताए बिना अपने उपयोगकर्ताओं के बारे में जानकारी नहीं दी। हालांकि, ओपनएआई ने बताया कि यह सुरक्षा परीक्षण के उद्देश्य से किया गया था, लेकिन बहुत से उपयोगकर्ताओं ने इस दृष्टिकोण के लिए तीव्र असंतोष व्यक्त किया, जिसके अनुसार यह उनके सूचित होने के अधिकार और सेवा का उपयोग करने के अधिकार के उल्लंघन करता है। उपयोगकर्ताओं ने कहा है कि जब वे किसी विशिष्ट उन्नत मॉडल के लिए भुगतान करते हैं, तो उन्हें उस संबंधित सेवा का उपयोग करना चाहिए, न कि उनके पीछे चुपके से नीचे डाल देना।
इस घटना ने कृत्रिम बुद्धिमत्ता उद्योग में उपयोगकर्ता विकल्प और सूचित होने के अधिकार के महत्व को उजागर किया। अधिक उपयोगकर्ता अब कृत्रिम बुद्धिमत्ता विक्रेताओं के एल्गोरिथ्म नियंत्रण, मॉडल स्थानांतरण और सं tài के बारे में अस्पष्ट नीतियों के बारे में चिंता व्यक्त करना शुरू कर रहे हैं, जिसके अनुसार ऐसे व्यवहार उपयोगकर्ता अनुभव के साथ-साथ ब्रांड पर भरोसे में कमी ला सकते हैं।