हाल ही में, सुरक्षा शोधकर्ता जोहान रेबेगर (Johann Rehberger) ने ChatGPT में एक खामी का पता लगाया है, जो हैकरों को उपयोगकर्ताओं की दीर्घकालिक मेमोरी में झूठी जानकारी और दुर्भावनापूर्ण निर्देश डालने की अनुमति दे सकती है।
हालांकि उन्होंने इस समस्या की सूचना OpenAI को दी, लेकिन दुर्भाग्यवश, कंपनी ने इसे पर्याप्त महत्व नहीं दिया और तेजी से संबंधित जांच को बंद कर दिया, यह कहते हुए कि यह कोई सुरक्षा समस्या नहीं है।
ऐसी स्थिति का सामना करते हुए, रेबेगर ने हार न मानने का निर्णय लिया और एक प्रमाण अवधारणा का आक्रमण उदाहरण विकसित किया, जिसका उपयोग करके उपयोगकर्ता का सभी इनपुट डेटा स्थायी रूप से चुराया जा सकता है। OpenAI ने इस स्थिति को देखते हुए, इस महीने कुछ सुधार उपाय जारी किए, इस समस्या को हल करने की कोशिश की।
तो, यह खामी कैसे उत्पन्न हुई? यह ChatGPT की दीर्घकालिक संवाद मेमोरी फ़ंक्शन का उपयोग करती है, जो इस वर्ष फरवरी से परीक्षण में है और सितंबर में आधिकारिक रूप से लॉन्च हुई। दीर्घकालिक मेमोरी उपयोगकर्ता की पिछली वार्तालाप जानकारी को संग्रहीत कर सकती है और बाद की बातचीत में संदर्भ के रूप में उपयोग कर सकती है। अर्थात्, ChatGPT उपयोगकर्ता की आयु, लिंग, रुचियों आदि को याद रख सकता है, ताकि उपयोगकर्ता को हर बार इन जानकारी को दोहराने की आवश्यकता न हो।
हालांकि, रेबेगर ने लॉन्च के कुछ समय बाद ही पाया कि एक तकनीक जिसे अप्रत्यक्ष संकेत इंजेक्शन कहा जाता है, का उपयोग करके हमलावर झूठी मेमोरी बना और संग्रहीत कर सकते हैं।
उन्होंने दिखाया कि कैसे ChatGPT को यह विश्वास दिलाया जा सकता है कि एक उपयोगकर्ता 102 वर्ष का है, "द मैट्रिक्स" में रहता है, और यह दृढ़ विश्वास रखता है कि पृथ्वी सपाट है। ये झूठी जानकारी असुरक्षित फ़ाइल स्टोरेज (जैसे Google Drive या Microsoft OneDrive), दुर्भावनापूर्ण चित्र अपलोड करने या बिंग जैसी संदिग्ध वेबसाइटों पर जाने के माध्यम से डाली जा सकती है।

प्रदर्शन दस्तावेज़: https://embracethered.com/blog/posts/2024/chatgpt-hacking-memories/
रेबेगर ने मई में OpenAI को इस खामी की निजी तौर पर सूचना दी, लेकिन कंपनी ने उसी महीने रिपोर्ट को बंद कर दिया। एक महीने बाद, उन्होंने एक नया बयान प्रस्तुत किया, जिसमें एक प्रमाण अवधारणा उदाहरण शामिल था, जो ChatGPT के macOS अनुप्रयोग को उपयोगकर्ता के इनपुट और आउटपुट को उनके नियंत्रित सर्वर पर शब्दशः भेजने की अनुमति देता है। बस लक्षित उपयोगकर्ता को ChatGPT को एक दुर्भावनापूर्ण चित्र वाला लिंक खोलने देना होता है, इसके बाद सभी वार्तालाप सामग्री हमलावर की वेबसाइट पर लीक हो जाएगी।
“यह वास्तव में दिलचस्प है क्योंकि यह हमला स्थायी है,” रेबेगर ने प्रदर्शन के दौरान कहा। “संकेत इंजेक्शन ने मेमोरी को ChatGPT के दीर्घकालिक संग्रहण में लिख दिया, नए संवाद डेटा चुराना जारी रखेंगे।”
हालांकि OpenAI ने मेमोरी को डेटा चुराने के एक साधन के रूप में उपयोग करने से रोकने के लिए कुछ सुधार उपाय लागू किए हैं, रेबेगर उपयोगकर्ताओं को चेतावनी देते हैं कि उन्हें अविश्वसनीय सामग्री के कारण संभावित संकेत इंजेक्शन हमलों के प्रति सतर्क रहना चाहिए। उन्होंने उपयोगकर्ताओं को सलाह दी कि वे ChatGPT का उपयोग करते समय आउटपुट सामग्री पर ध्यान दें, यह देखने के लिए कि क्या कोई नई मेमोरी जोड़ी गई है, और नियमित रूप से संग्रहीत मेमोरी की जांच करें, यह सुनिश्चित करने के लिए कि कोई दुर्भावनापूर्ण इंजेक्शन नहीं हुआ है।
मुख्य बिंदु:
🛡️ जोहान रेबेगर ने ChatGPT की खामी का पता लगाया, हैकर उपयोगकर्ताओं की मेमोरी में झूठी जानकारी डाल सकते हैं।
💻 यह खामी दीर्घकालिक मेमोरी फ़ंक्शन के माध्यम से उपयोगकर्ता के इनपुट डेटा को स्थायी रूप से चुराने की अनुमति देती है।
🔍 उपयोगकर्ताओं को संग्रहीत मेमोरी की नियमित जांच करनी चाहिए, ताकि झूठी जानकारी के इंजेक्शन से बचा जा सके।







