गणना से पता चलता है कि सुपर-बुद्धिमान AI को नियंत्रित करना असंभव होगा

मानव जाति की कृत्रिम बुद्धिमत्ता को टॉप करने के विचार के बारे में बात की गई है कई दशकवैज्ञानिकों ने अभी अपना निर्णय लिया है कि क्या हम एक उच्च अंत कंप्यूटर की बुद्धिमत्ता को नियंत्रित कर पाएंगे। उत्तर? बेशक नहीं।

मुद्दा यह है कि मानव की समझ से बहुत आगे जाने वाले एक सुपरिन्टिजेन्स को नियंत्रित करने के लिए उस सुपरिंटेडनेस का अनुकरण आवश्यक है जिसका हम विश्लेषण कर सकते हैं। लेकिन अगर हम इसे समझने में असमर्थ हैं, तो इस तरह का अनुकरण बनाना असंभव है।

नए पेपर के लेखकों के सुझाव के अनुसार, अगर हम परिदृश्यों के प्रकार को नहीं समझेंगे, तो एआई कैसे सामने आएगा, “मानव को कोई नुकसान न हो” जैसे नियमों को स्थापित करना संभव नहीं है। एक बार जब एक कंप्यूटर सिस्टम हमारे प्रोग्रामर की सीमा से अधिक के स्तर पर संचालित होता है, तो हम अब सीमा निर्धारित नहीं कर सकते हैं।

‘रोबोट एथिक्स’ स्लोगन के तहत आमतौर पर पढ़े जाने वाले व्यक्ति से सुपरिन्टिजेन्स मौलिक रूप से एक समस्या है। शोधार्थी लिखें

“ऐसा इसलिए है क्योंकि अधीक्षणीय बुद्धिमत्ता बहुआयामी है और इस प्रकार लक्ष्यों को प्राप्त करने के लिए संभावित रूप से विभिन्न प्रकार के संसाधन जुटाने में सक्षम है जो मानवों के लिए अजेय होने की संभावना है, अकेले उन्हें नियंत्रित करें।”

टीम के अनुमान का एक हिस्सा आता है समस्या बंद हो गई इसे 1936 में एलन ट्यूरिंग द्वारा लाया गया था। समस्या यह जानने के इर्द-गिर्द घूमती है कि कंप्यूटर प्रोग्राम किसी नतीजे पर पहुंचेगा या नहीं और इसका जवाब (इसलिए यह बंद हो जाता है), या सिर्फ एक को खोजने की कोशिश को दोहराता है।

READ  Stargazers के उपचार में, पांच ग्रह दुर्लभ संरेखण में चलते हैं | विज्ञान | विज्ञान और प्रौद्योगिकी पर गहन रिपोर्ट | डीडब्ल्यू

कुछ के माध्यम से ट्यूरिंग भी साबित हुआ है स्मार्ट गणित, जबकि हम यह जान सकते हैं कि कुछ विशिष्ट कार्यक्रमों के लिए, एक ऐसी विधि खोजना तार्किक रूप से असंभव है जो हमें हर संभावित कार्यक्रम के लिए यह जानने की अनुमति दे, जो किसी भी समय लिखा जा सकता है। यह हमें कृत्रिम बुद्धि में वापस लाता है, जो एक सुपर-बुद्धिमान राज्य में हर संभव कंप्यूटर प्रोग्राम को एक साथ अपनी मेमोरी में रख सकता है।

एआई को मनुष्यों को नुकसान पहुंचाने और दुनिया को नष्ट करने से रोकने के लिए लिखा गया कोई भी कार्यक्रम, उदाहरण के लिए, किसी निष्कर्ष पर पहुंच सकता है (या रुक सकता है) या नहीं – यह गणितीय रूप से असंभव है कि वह पूरी तरह से सुनिश्चित हो, जिसका अर्थ है कि इसमें निहित नहीं है।

“वास्तव में, यह रोकथाम एल्गोरिथम को अनुपयोगी बनाता है” कंप्यूटर वैज्ञानिक इयाद रहवान कहते हैंजर्मनी में मैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट से।

शोधकर्ताओं ने एआई को कुछ नैतिकता सिखाने और इसे दुनिया को नष्ट न करने के विकल्प के रूप में कहा है – ऐसा कुछ जिसे कोई भी एल्गोरिथ्म पूरी तरह से सुनिश्चित नहीं कर सकता है – वह है अधीक्षण की क्षमताओं को सीमित करना। उदाहरण के लिए, इसे इंटरनेट या कुछ नेटवर्क के कुछ हिस्सों से काट दिया जा सकता है।

नया अध्ययन इस विचार को भी खारिज करता है, यह दर्शाता है कि यह पहुंच को सीमित करेगा कृत्रिम होशियारी तर्क यह जाता है कि अगर हम इसका उपयोग मानवता के बाहर की समस्याओं को हल करने के लिए नहीं करने जा रहे हैं, तो हम इसे क्यों बनाते हैं?

READ  नासा ने जीवन की संभावना के साथ यह विशाल 4x सुपर-अर्थ पाया

अगर हम एआई के साथ आगे बढ़ते, तो हमें यह भी पता नहीं चलता कि हमारे नियंत्रण से परे एक अधीक्षण, जैसे कि इसे समझ में नहीं आता, आता है। इसका मतलब है कि हम उन दिशाओं के बारे में कुछ गंभीर सवाल पूछना शुरू कर सकते हैं, जिनमें हम आगे बढ़ रहे हैं।

“दुनिया को नियंत्रित करने वाली सुपर इंटेलिजेंट मशीन विज्ञान कथा की तरह लगती है,” कंप्यूटर वैज्ञानिक मैनुअल सीब्रियन कहते हैंमैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट से। “लेकिन वास्तव में ऐसी मशीनें हैं जो प्रोग्रामर के बिना स्वतंत्र रूप से कुछ महत्वपूर्ण कार्यों को पूरी तरह से समझती हैं कि उन्होंने उन्हें कैसे सीखा।”

इसलिए सवाल उठता है कि क्या यह किसी बिंदु पर नियंत्रण से बाहर हो सकता है और मानवता के लिए खतरनाक है।

शोध में प्रकाशित किया गया है आर्टिफिशियल इंटेलिजेंस रिसर्च जर्नल

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *