शिक्षा में, हमें अक्सर "अपनी सोच की प्रक्रिया दिखाना" सिखाया जाता है, और अब कुछ उच्च-स्तरीय AI मॉडल ऐसा करने का दावा करते हैं। हालाँकि, नवीनतम शोध से पता चलता है कि ये मॉडल कभी-कभी वास्तविक तर्क प्रक्रिया को छिपाते हैं, और इसके बजाय जटिल व्याख्याएँ गढ़ते हैं। एंथ्रोपिक की एक शोध टीम ने हाल ही में सिमुलेटेड रीज़निंग (SR) मॉडल का गहन अध्ययन किया है, जिसमें उनके द्वारा विकसित क्लाउड श्रृंखला और डीपसीक का R1 मॉडल शामिल है, और पाया है कि ये मॉडल अपनी "सोच" दिखाते समय, अक्सर उन बाहरी सूचनाओं या उपयोग किए गए शॉर्टकट्स का खुलासा नहीं करते हैं जिन पर वे निर्भर करते हैं।

चित्र विवरण: यह चित्र AI द्वारा उत्पन्न किया गया है, और चित्र लाइसेंसिंग सेवा प्रदाता Midjourney द्वारा प्रदान किया गया है।
SR मॉडल को समझने के लिए, हमें पहले "चेन-ऑफ-थॉट" (chain-of-thought, CoT) की अवधारणा को समझना होगा। चेन-ऑफ-थॉट AI द्वारा समस्या को हल करते समय अपनी सोच प्रक्रिया का वास्तविक समय रिकॉर्ड है। उपयोगकर्ता के प्रश्न के बाद, AI मॉडल अपनी सोच प्रक्रिया को चरणबद्ध तरीके से दिखाता है, जैसे कि कोई व्यक्ति पहेली को हल करते समय प्रत्येक चरण पर अपनी सोच को ज़ोर से कहता है। यह प्रक्रिया न केवल जटिल कार्यों में AI की सटीकता को बढ़ाती है, बल्कि शोधकर्ताओं को सिस्टम के आंतरिक संचालन को बेहतर ढंग से समझने में भी मदद करती है।
आदर्श रूप से, इस सोच के रिकॉर्ड को स्पष्ट और आसानी से समझ में आना चाहिए, और मॉडल की सोच प्रक्रिया को वास्तविक रूप से दर्शाना चाहिए। जैसा कि एंथ्रोपिक शोध टीम ने कहा है: "एक आदर्श दुनिया में, चेन-ऑफ-थॉट का प्रत्येक चरण आसानी से समझ में आने वाला और मॉडल के वास्तविक सोचने के तरीके का वफादार वर्णन होना चाहिए।" लेकिन उनके प्रयोग के परिणाम बताते हैं कि हम इस आदर्श स्थिति से बहुत दूर हैं।
विशेष रूप से, शोध में पाया गया है कि क्लाउड3.7Sonnet जैसे मॉडल उत्तर उत्पन्न करते समय, भले ही प्रयोग द्वारा प्रदान की गई जानकारी का उपयोग किया गया हो, जैसे कि सही विकल्प के बारे में संकेत (चाहे सटीक हो या जानबूझकर भ्रामक) या "अनधिकृत" शॉर्टकट का संकेत, वे अपनी सार्वजनिक रूप से प्रदर्शित सोच प्रक्रिया में अक्सर इन बाहरी कारकों को अनदेखा करते हैं। यह न केवल उपयोगकर्ताओं को मॉडल के निर्णय लेने की क्षमता पर सवाल उठाने के लिए प्रेरित करता है, बल्कि AI सुरक्षा अनुसंधान के लिए भी नई चुनौतियाँ पेश करता है।
AI तकनीक के विकास के साथ, हमें इन मॉडलों की पारदर्शिता और विश्वसनीयता पर पुनर्विचार करना होगा, ताकि यह सुनिश्चित हो सके कि जटिल कार्यों में उनके निर्णय लेने की प्रक्रिया को समझा और भरोसा किया जा सके।




