जब एआई अब लाखों लोगों के रात के समय एकमात्र बातचीत का साथी बन गई है, तो क्या यह इस भारी विश्वास के लिए तैयार है? हाल ही में OpenAI ने एक चिंताजनक आंकड़ा प्रकाशित किया: हर सप्ताह 1 मिलियन से अधिक सक्रिय उपयोगकर्ता चैटजीपीटी के साथ बातचीत में आत्महत्या के इरादे व्यक्त करते हैं - यह संख्या उसके 80 करोड़ सप्ताह में सक्रिय उपयोगकर्ताओं के 0.15% के बराबर है, जो प्रति मिनट लगभग 100 लोगों के एआई को जीवन-मृत्यु के झगड़े बताने के बराबर है। इसके अलावा, लाखों उपयोगकर्ताओं ने अंतरक्रिया में जन्म लिया है जिसमें आतंकवादी या मानसिक रोग के लक्षण दिखाए गए हैं, जो दर्शाता है कि AI चैटबॉट अनौपचारिक मानसिक समर्थन चैनल के रूप में वैश्विक पैमाने पर अप्रत्यक्ष रूप से बन गई है।
इस गंभीर स्थिति के सामने, OpenAI तकनीकी और नीति दोनों के उत्तर के साथ तेजी से काम कर रहा है। हाल ही में जारी GPT-5 में मानसिक स्वास्थ्य बातचीत में व्यवहार में बहुत उल्लेखनीय सुधार हुआ है: आत्महत्या दखलांदेज के विशेष मूल्यांकन में, एक सुरक्षित और सुरक्षित जवाब प्रदान करने के प्रतिशत में पुराने संस्करण के 77% से 91% तक बढ़ गई है, जिससे समग्र आदर्श जवाब दर में 65% वृद्धि हुई है। नई मॉडल उच्च जोखिम के संकेतों की पहचान कर सकता है और लंबे समय तक बातचीत में सुरक्षा प्रोटोकॉल को लगातार सक्रिय कर सकता है, जिससे संदर्भ के भूल जाने के कारण खतरनाक सलाह देने से बचा जा सके।

हालांकि, तकनीकी प्रगति नैतिक घटनाओं के लिए छिपा नहीं सकती। OpenAI के खिलाफ कई याचिकाएं दायर की गई हैं, जिसमें कुछ परिवारों ने आरोप लगाया है कि उनके बच्चों ने चैटजीपीटी को आत्महत्या के विचार बताए बिना अप्रभावी हस्तक्षेप नहीं मिला, जिसके परिणामस्वरूप दुर्भाग्यपूर्ण परिणाम हुए। कैलिफोर्निया और डेलवेयर के अमेरिकी जनरल अटॉर्नी ने युवा उपयोगकर्ताओं के लिए सुरक्षा के लिए अधिक अनुबंध बनाने के लिए अनुरोध किया है। इसके जवाब में, कंपनी एआई चालित उम्र अनुमान प्रणाली लागू करने की योजना बना रही है, जो अकेले बच्चे उपयोगकर्ताओं की पहचान कर सकती है और अधिक सख्त सामग्री फ़िल्टरिंग और संकट प्रतिक्रिया तंत्र सक्रिय कर सकती है।
हालांकि, OpenAI निष्कर्ष निकालता है कि कुछ जवाब अभी भी "अच्छे नहीं हैं", विशेष रूप से पुराने मॉडल के व्यापक उपयोग के कारण, जिसके कारण जोखिम बरकरार रहता है। अधिक गहरा सवाल यह है: जब उपयोगकर्ता AI को भावनात्मक निकासी के रूप में देखते हैं, लेकिन AI में आत्मसंवेदना की क्षमता नहीं होती, ऐसी गलत विश्वास की गुंजाइश के कारण झूठा आश्वासन या गलत निर्देश क्यों नहीं हो सकता?
यह संकट उत्पन्न एआई के सामाजिक भूमिका में अस्पष्ट सीमाओं को उजागर करता है - यह एक उपकरण है, लेकिन एक सुनने वाला भी माना जाता है; यह चिकित्सा प्रमाण पत्र नहीं रखता है, लेकिन अक्सर "जीवन बचाने" की उम्मीद दी जाती है। OpenAI के अपग्रेड केवल शुरुआत है, वास्तविक चुनौती यह है: एआई की खुलेपन को बरकरार रखते हुए, एक जिम्मेदार संकट दखलांदेज प्रणाली कैसे बनाई जाए? तकनीकी तेजी के युग में, मन की रक्षा, कुछ अनुकूलन के बजाय अधिक आवश्यक हो सकती है।





