You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
आर्टिफ़िशियल इंटेलिजेंस से मानव सभ्यता के अंत का ख़तरा, जानकारों ने दी चेतावनी
- Author, क्रिस वालेंस
- पदनाम, टेक्नोलॉजी रिपोर्टर
'आर्टिफ़िशियल इंटेलिजेंस से इंसानी वजूद को ख़तरा हो सकता है.' कई विशेषज्ञों ने इसे लेकर आगाह किया है. ऐसी चेतावनी देने वालों में ओपनएआई और गूगल डीपमाइंड के प्रमुख शामिल हैं.
इसे लेकर जारी बयान 'सेंटर फ़ॉर एआई सेफ़्टी' के वेबपेज़ पर छपा है. कई विशेषज्ञों ने इस बयान के साथ अपनी सहमति जाहिर की है.
विशेषज्ञों ने चेतावनी देते हुए कहा है, "समाज को प्रभावित कर सकने वाले दूसरे ख़तरों, मसलन महामारी और परमाणु युद्ध के साथ साथ एआई (आर्टिफ़िशियल इंटेलिजेंस) की वजह से वजूद पर मौजूद ख़तरे को कम करना वैश्विक प्राथमिकता होनी चाहिए."
लेकिन कई लोगों की राय है कि इसके डर को बढ़ा चढ़ाकर बताया जा रहा है.
चैटजीपीटी के चीफ़ एक्ज़ीक्यूटिव सैम ऑल्टमैन, गूगल डीपमाइंड के चीफ़ एक्ज़ीक्यूटिव डेमिस हसाबिस और एंथ्रोपिक के डैरियो अमोदेई ने बयान का समर्थन किया है.
क्या हो सकते हैं ख़तरे
- सेंटर फ़ॉर एआई सेफ़्टी वेबसाइट ने तबाही वाले कई संभावित परिदृश्यों का ज़िक्र किया है.
- एआई को हथियार की तरह इस्तेमाल किया जा सकता है- उदाहरण के लिए ड्रग डिस्कवरी टूल्स को कैमिकल वेपन्स (रासायनिक हथियार) बनाने के लिए आजमाया जा सकता है.
- एआई की मदद से तैयार ग़लत सूचनाएं समाज को अस्थिर कर सकती हैं और इससे 'सामूहिक निर्णय प्रक्रिया पर असर हो सकता है.'
- एआई की ताक़त कुछ ही हाथों में सिमट सकती है, जिससे 'सरकारें बड़े पैमाने पर लोगों की निगरानी करने और दमनकारी सेंसरशिप के लिए इस्तेमाल कर सकती हैं.'
- ऐसी स्थिति भी बन सकती है जब इंसान एआई पर निर्भर हो जाएं जैसा कि 'फ़िल्म वॉल ई में दिखाया गया था.
बढ़ा-चढ़ाकर बताया जा रहा है ख़तरा?
सेंटर फ़ॉर एआई सेफ़्टी की चेतावनी का डॉक्टर ज्यॉफ़री हिंटन ने भी समर्थन किया है. वो सुपर इंटेलिजेंट एआई के ख़तरों को लेकर पहले भी चेतावनी जारी कर चुके हैं
यूनिवर्सिटी ऑफ़ मोंट्रियल में कंप्यूटर साइंस के प्रोफ़ेसर योशुआ बेंजो ने भी बयान पर दस्तख़त किए हैं.
डॉक्टर हिंटन, प्रोफ़ेसर बेंजो और प्रोफ़ेसर यान लेकन को 'एआई का गॉडफादर' कहा जाता है. इसकी वजह है इस क्षेत्र में उनका उल्लेखनीय काम.
इसके लिए इन्हें साल 2018 में संयुक्त रुप से 'टर्निंग अवॉर्ड' दिया गया था. ये पुरस्कार कंप्यूटर साइंस के क्षेत्र में उल्लेखनीय योगदान के लिए दिया जाता है.
प्रोफ़ेसर लेकन मेटा के लिए भी काम करते हैं. वो कहते हैं कि ये सर्वनाश से जुड़ी ये चेतावनी बढ़ा चढ़ाकर बताई जा रही है.
उन्होंने ट्विटर पर लिखा, "विनाश की इन भविष्यवाणियों को लेकर एआई शोधकर्ताओं की सबसे आम प्रतिक्रिया चेहरे पर हथेली रखने जैसी है."
कई दूसरे विशेषज्ञों की राय भी ऐसी ही है. वो कहते हैं कि एआई मानवता को ख़त्म कर देगी, ये डर वास्तविक नहीं है. ये बातें सिस्टम में पहले से मौजूद पूर्वाग्रह जैसी दिक्कतों से ध्यान हटा सकती हैं.
प्रिंसटन यूनिवर्सिटी में कंप्यूटर वैज्ञानिक अरविंद नारायणन ने बीबीसी से कहा था कि साई फ़ाई जैसा विनाशकारी घटनाक्रम वास्तविक नहीं है.
उनके मुताबिक, "मौजूदा एआई ऐसे जोखिमों के सच में तब्दील होने की क्षमता नहीं रखता है. नतीजतन, ये हाल फिलहाल एआई से हो सकने वाले नुक़सान की ओर से ध्यान हटा रहा है."
ऑक्सफ़ोर्ड इंस्टीट्यूट फ़ॉर एथिक्स इन एआई की सीनियर रिसर्च एसोसिएट एलिजाबेथ रेनिएरिस ने बीबीसी से कहा कि वो मौजूदा वक़्त के करीबी दौर के ख़तरों को लेकर ज़्यादा फ़िक्रमंद हैं.
उन्होंने कहा, "एआई की तरक्की से खुद ब खुद लिए जाने वाले ऐसे फ़ैसलों की क्षमता बढ़ेगी जो पूर्वाग्रह वाले हैं, जिनमें भेदभाव होता है, लोगों को अलग थलग किया जाता है और निष्पक्ष नहीं होते हैं. जिनकी समीक्षा नहीं हो सकती और उन पर बहस नहीं होते."
उनके मुताबिक, "इससे मात्रा में बेतहाशा इजाफा होगा और ग़लत जानकारियां फैलेंगी. इससे हक़ीकत सही रूप में सामने नहीं आएगी. लोगों का भरोसा घटेगा. इससे असमानता और बढ़ेगी. खासकर उनके लिए जो डिजिटल तौर पर विभाजित दुनिया के कमज़ोर हिस्से की तरफ हैं."
क्या हो सुरक्षित रास्ता?
वो कहती हैं कि एआई के कई टूल 'अब तक के इंसानी अनुभव के लिहाज से फ्री राइड की तरह हैं.' इनमें से ज़्यादातर की ट्रेनिंग इंसान की बनाई सामग्री, टेक्स्ट, आर्ट और संगीत के जरिए हुई है. वो उसी के आधार पर काम करते हैं.
इन्हें तैयार करने वालों ने 'प्रभावी तरीके से तमाम दौलत और ताक़त को आम लोगों के बीच से हटाकर चंद निजी संस्थानों में लगाया है.'
लेकिन सेंटर फ़ॉर सेफ्टी के डायरेक्टर डटैन हेंड्राईक्स ने बीबीसी से कहा कि आने वाले वक़्त के जोखिम और आज की चिंताओं को 'परस्पर विरोधी के तौर पर नहीं देखा जाना चाहिए.'
वो कहते हैं, "कुछ मुद्दों को आज हल कर लिया जाए तो इससे आगे सामने आने वाले कई जोखिमों को हल करने में मदद मिल सकती है. "
नई नहीं है चिंता
एआई के जरिए अस्तित्व पर संभावित ख़तरे को लेकर मार्च 2023 से बढ़ी है. तब टेस्ला के बॉस एलन मस्क समेत कई विशेषज्ञों ने एक खुला ख़त लिखा था. इसमें एआई तक़नीक की नेक्स्ट जेनरेशन के डेवलपमेंट को रोकने की गुजारिश की गई थी.
इस पत्र में सवाल किया गया था, 'क्या हमें ऐसे गैर इंसानी दिमाग तैयार करने चाहिए जो आगे जाकर संख्या में हमसे आगे निकल जाएं, हम से ज़्यादा स्मार्ट हों और हमारी जगह ले लें.'
इससे अलग नए अभियान के तहत बहुत छोटा सा बयान जारी किया गया है. इसमें 'चर्चा शुरू करने' की बात है.
इस बयान में ख़तरे की तुलना परमाणु युद्ध से की गई है. ओपनएआई के एक हालिया ब्लॉग में कहा गया है कि सुपरइंटेलिजेंस को न्यूक्लियर एनर्जी की ही तरह नियंत्रित किया जाना चाहिए.
ब्लॉग में लिखा गया है, "सुपरइंटेलिजेंस के लिए हमें आईएईए (इंटरनेशनल एटोमिक एनर्जी एजेंसी) जैसे किसी संगठन की ज़रुरत होगी."
सुनक ने दिया भरोसा
सैम ऑल्टमैन और गूगल के चीफ़ एक्ज़ीक्यूटिव सुंदर पिचाई तकनीकी क्षेत्र के उन अगुवा लोगों में शामिल हैं जिन्होंने एआई को नियंत्रित करने के लिए हाल में ब्रिटेन के प्रधानमंत्री ऋषि सुनक से बात की है.
एआई के ख़तरों को लेकर दी गई हालिया चेतावनी के बारे में पत्रकारों से चर्चा करते हुए ऋषि सुनक ने अर्थव्यवस्था और समाज को होने वाले फ़ायदों पर ज़ोर दिया.
उन्होंने कहा, "आपने हाल में देखा कि ये लकवे के शिकार लोगों की चलने में मदद कर रहा था. नई एंटीबायोटिक्स की खोज कर रहा है लेकिन हमें ये तय करना होगा कि ये सब सुरक्षित तरीके से हो."
उन्होंने कहा, "यही वजह है कि मैं पिछले हफ़्ते सभी प्रमुख एआई कंपनियों के सीईओ से मिला ताकि हम चर्चा कर सकें कि हमें कौन से अवरोध लगाने हैं, किस तरह के नियंत्रण लगाए जाने चाहिए ताकि हम सुरक्षित रह सकें."
ब्रिटेन के पीएम ऋषि सुनक ने कहा कि उन्होंने जी7 समिट में दूसरे नेताओं के साथ इस मुद्दे पर चर्चा की और जल्दी ही अमेरिका में भी इस मुद्दे को उठाएंगे. जी7 ने हाल में एआई के लिए एक 'वर्किंग' ग्रुप बनाया है.
ये भी पढ़ें
(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर, इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)