हाल ही में, Meta कंपनी (Facebook, Instagram, WhatsApp और Threads के माता-पिता कंपनी) ने अपने आंतरिक सुरक्षा और गोपनीयता परीक्षण कार्य को आर्टिफिशियल इंटेलिजेंस (AI) की ओर स्थानांतरित करने की घोषणा की है, जिसके तहत 90% जोखिम का मूल्यांकन ऑटोमेटिक होगा। NPR द्वारा प्राप्त अंदरूनी दस्तावेज़ों के अनुसार, पिछले वर्षों से इन कार्यों को विशेषज्ञ टीमों द्वारा निभाया जाता था, जिसमें उपयोगकर्ताओं की गोपनीयता पर प्रभाव, बच्चों को नुकसान पहुँचाने या झूठे सूचना के फैलाव पर ध्यान केंद्रित किया जाता था। अब ये जिम्मेदारी मुख्य रूप से AI तकनीक को सौंपी जाएगी।
नई परीक्षण ढांचे के तहत, उत्पाद टीम एक प्रश्ननामा भरेगा जिसमें अपडेट के बारे में विस्तार से विवरण दिए जाएंगे, फिर AI सिस्टम तुरंत मूल्यांकन करेगा और संभावित जोखिम को सूचीबद्ध करेगा और परियोजना के लिए आवश्यक प्रतिबंध निर्धारित करेगा। मानवीय सुरक्षा केवल विशेष परिस्थितियों में ही आवश्यक होगी, जैसे कि परियोजना में नई जोखिम शामिल हो या टीम खासकर मानव भागीदारी की मांग करे। Meta के अंदर एक स्लाइडशो ने दिखाया है कि टीम इस AI मूल्यांकन पर "तुरंत निर्णय" निर्भर करेगी।
यह परिवर्तन उत्पादकों को नए फ़ंक्शनलिटी को जल्दी-जल्दी लॉन्च करने में सक्षम बनाएगा, लेकिन विशेषज्ञों, जिनमें पूर्व Meta एग्जीक्यूट्स भी शामिल हैं, ने इसके पीछे बाहरी दृष्टिकोण से चिंतित व्यक्त किया है, इसका खतरा कम किया जाए नहीं रहा है। "किसी तरह से, यह अर्थ है कि अधिक उत्पाद तेजी से लॉन्च होंगे, और नियंत्रण और विरोधाभास परीक्षण घट जाएगा, जो उच्च जोखिम का कारण बनेगा," एक नामहीन पूर्व Meta एग्जीक्यूट ने बताया।
Meta ने इस प्रक्रिया को "निर्णय बनाने को सरल" करने के लिए बनाया है और "मानवीय विशेषज्ञता" को "नवीन और जटिल समस्याओं" के लिए जारी रखने का वादा किया है। हालांकि कंपनी का कथन है कि केवल "उच्च जोखिम के निर्णयों" को ऑटोमेटेड किया जाएगा, लेकिन अंदरूनी दस्तावेज़ बताते हैं कि AI सुरक्षा, युवा जनसमूहों के खतरे और सामग्री पूर्णता जैसी अधिक संवेदनशील क्षेत्रों में भी ऑटोमेटेड मूल्यांकन किया जाएगा।
कुछ Meta के अंदर और बाहर के लोगों ने जोखिम मूल्यांकन के लिए AI पर अतिशय अवलंबन करने का आलोचनात्मक दृष्टिकोण पेश किया है। एक पूर्व कर्मचारी ने कहा, "जब भी वे नया उत्पाद लॉन्च करते हैं, तो बहुत सी जांच आती है, जो अक्सर कंपनी को और गंभीरता से लेने के लिए प्रेरित करती है।"
इसके अलावा, Meta से 2012 से यू.एस. फेडरल ट्रेड कमिशन (FTC) द्वारा एक समझौते के अधीन रहा है, जिसके अनुसार उन्हें उत्पाद अपडेटों पर गोपनीयता परीक्षण करने की ज़रूरत है। Meta का कथन है कि वे इस प्रक्रिया में $8 बिलियन से अधिक निवेश किया है और प्रक्रिया को बेहतर बनाने के लिए जारी रखते हैं।
रुचिकर बात है कि यूरोपीय उपयोगकर्ताओं को इसी तरह की ऑटोमेटेड परीक्षा नहीं मिलेगी। अंदरूनी संचारों के अनुसार, EU उत्पादों के लिए निर्णय अभी भी Meta के आयरलैंड के मुख्यालय द्वारा लिए जाएगा, जिसका कारण यह है कि Digital Services Act ने विषयों और डेटा सुरक्षा पर अधिक मजबूत नियम लागू किए हैं।
मुख्य बिंदु:
- 🛡️ Meta ने 90% जोखिम मूल्यांकन को AI के प्रति स्थानांतरित करने की योजना बनाई है, यह उत्पाद अपडेट को तेज़ करने के लिए अंजाम दिया जाएगा।
- ⚠️ विशेषज्ञ इस कदम से जोखिमों की बढ़ती संभावना से चिंतित हैं, इसके साथ ही मानवीय जांच की कमी होने का भी खतरा है।
- 🇪🇺 यूरोपीय उपयोगकर्ताओं के लिए AI से संबंधित फैसले Meta के मुख्यालय द्वारा लिए जाएंगे, जो इसके वास्तविक नियमों का पालन करता है।
मेटा कंपनी ने AI सुरक्षा समस्याओं के कारण 90% जोखिम मूल्यांकन को AI को सौंप दिया, इससे चिंता पैदा हुई

AIbase基地
यह लेख AIbase दैनिक से है
【AI दैनिक】 कॉलम में आपका स्वागत है! यहाँ आर्टिफ़िशियल इंटेलिजेंस की दुनिया का पता लगाने के लिए आपकी दैनिक मार्गदर्शिका है। हर दिन हम आपके लिए AI क्षेत्र की हॉट कंटेंट पेश करते हैं, डेवलपर्स पर ध्यान केंद्रित करते हैं, तकनीकी रुझानों को समझने में आपकी मदद करते हैं और अभिनव AI उत्पाद अनुप्रयोगों को समझते हैं।