परमाणु बम जैसा खतरा पैदा कर रहा आर्टिफिशियल इंटेलिजेंस, एआई से डर रहे विशेषज्ञ
एआई से जुड़े शोध रोकने की मांग
द फ्यूचर आफ लाइफ इंस्टीट्यूट पर एक खुला बयान जारी करते हुए दुनिया के एक हजार से ज्यादा टेक्निकल विशेषज्ञों ने आर्टीफिशियल इंटेलीजेंस की रेस को रोकने का आग्रह किया है।
वॉशिंगटन। एक अरबपति और एक्सपर्ट ने आर्टिफिशियल इंटेलिजेंस को लेकर चेतावनी दी है। उन्होंने कहा है कि आटीर्फीशिएल इंटेलिजेंस के नुकसान की परवाह किए बिना हम अगर बढ़ते रहे तो यह परमाणु हथियार से भी खतरनाक हो सकता है। द फ्यूचर आफ लाइफ इंस्टीट्यूट पर एक खुला बयान जारी करते हुए दुनिया के एक हजार से ज्यादा टेक्निकल विशेषज्ञों ने आर्टीफिशियल इंटेलीजेंस की रेस को रोकने का आग्रह किया है। उन्हीं में से एक केविन बैरागोना हैं।
केविन का कहना है कि इन चैटबॉट्स को उचित सावधानी से बनाया जाना चाहिए। इनसे होने वाले जोखिम का मूल्यांकन करने की जरूरत है। उन्होंने हाल ही में एक इंटरव्यू में कहा कि एआई का निर्माण सॉफ्टवेयर की दुनिया में परमाणु हथियार बनाने जैसा है। कई विशेषज्ञ इस बात पर बहस कर रहे हैं कि क्या हमें इन्हें बनाना चाहिए या नहीं? परमाणु हथियारों को बनाने के दौरान भी इस तरह की चिंता जताई जा रही थी।
विशेषज्ञ क्यों हैं चिंतित : उन्होंने आगे कहा कि यह चिंपांजी और इंसानों के बीच जंग जैसा होगा। जाहिर है कि इंसानों के पास स्पेशल हथियार हैं, जिनके जरिए हम चिंपांजी से जीत जाएंगे। अब चिंपांजी की जगह इंसानों को रख कर देखिए। या तो एआई हमें मार डालेगा या फिर हमें अधीन कर लेगा। आर्टिफिशियल इंटेलिजेंस को लेकर यह चिंता चैट जीपीटी के कारण देखने को मिली है, जिसका कुछ ही दिनों में असाधारण रूप से उदय देखने को मिला है। यह चैटबॉट कई कानूनी और चिकित्सा परीक्षाओं को पास कर रहा है, जिसे पास करने के लिए एक इंसान को 3 महीने तक पढ़ना पड़ता है।
एआई से जुड़े शोध रोकने की मांग : आर्टिफिशियल इंटेलिजेंस के कारण सिलिकॉन वैली में एक युद्ध सा देखने को मिल रहा है। कई एआई शोधकतार्ओं और एलन मस्क ने एक खुला पत्र एआई लैब्स को लिखा है। इसमें उन्होंने पूरी दुनिया में एआई से जुड़े विकास को रोकने को कहा है। उन्होंने अपने पत्र में इस बात का डर जताया है कि ये इंसानियत और समाज के लिए खतरा बन सकते हैं।

Comment List