You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
आर्टिफिशियल इंटेलिजन्सला अणुऊर्जेप्रमाणे नियंत्रित करण्याची मागणी होतेय, कारण...
- Author, क्रिस वॉलेंस
- Role, टेक्नोलॉजी रिपोर्टर
आर्टिफिशियल इंटेलिजन्स अर्थात कृत्रिम बुद्धिमत्ता मानवी अस्तित्वास धोकादायक ठरू शकते असा इशारा ओपन एआय आणि गुगल डीपमाईंडच्या प्रमुखांनी दिला आहे.
यासंदर्भात त्यांनी दिलेलं निवेदन 'सेंटर फॉर एआय सेफ्टी'च्या वेबपेजवर प्रसिद्ध करण्यात आलंय. त्यांच्या या निवेदनावर अनेक तज्ज्ञांनी आपली सहमती दर्शवली आहे.
तज्ज्ञांनी इशारा देताना म्हटलंय की, "समाजावर परिणाम होणाऱ्या धोक्यांमध्ये आण्विक युद्ध, साथरोग तर आहेच. पण सोबतच कृत्रिम बुद्धिमत्तेमुळे मानवी अस्तित्वाला निर्माण होणारा धोका कमी करण्यावर जगाने भर दिला पाहिजे. "
पण ही भीती अतिशयोक्तीपूर्ण असल्याचं अनेकांचं मत आहे.
चॅटजीपीटीचे मुख्य कार्यकारी अधिकारी सॅम ऑल्टमन, गुगल डीपमाईंडचे मुख्य कार्यकारी डेमिस हसाबिस आणि एंथ्रोपिकचे डॅरियो अमोदेई या मताशी सहमत आहेत.
कोणते धोके उद्भवू शकतात?
सेंटर फॉर एआय सेफ्टी वेबसाइटने आपत्तीजनक परिस्थितीची संभाव्य सूची तयार केली आहे.
कृत्रिम बुद्धिमत्तेचा वापर शस्त्रासारखा केला जाऊ शकतो. जसं की,
ड्रग डिस्कव्हरी टूल्सचा वापर करून रासायनिक हत्यारं बनवली जाऊ शकतात.
कृत्रिम बुद्धिमत्तेच्या मदतीने तयार करण्यात आलेली चुकीची माहिती समाजाला अस्थिर करू शकते आणि सामूहिक निर्णय घेण्यावर प्रभाव टाकू शकते.
कृत्रिम बुद्धिमत्ता काही लोकांपुरतीच मर्यादित राहील. त्यातून सरकार लोकांवर पाळत ठेवण्यासाठी, दडपशाही, सेन्सॉरशिपसाठी त्याचा वापर करण्याची शक्यता आहे.
'व्हॉल ई' या चित्रपटात दाखवल्याप्रमाणे मानवाचं कृत्रिम बुद्धिमत्तेवरील अवलंबित्व वाढू लागेल.
हा धोका अतिशयोक्तीपूर्ण आहे का?
डॉ. जेफ्री हिंटन यांनी देखील सेंटर फॉर एआय सेफ्टीने दिलेल्या इशाऱ्याचं समर्थन केलंय. त्यांनी सुपर इंटेलिजेंट अशा कृत्रिम बुद्धिमत्तेच्या धोक्यांबद्दल आधीच माहिती दिली होती.
मॉन्ट्रियल विद्यापीठातील कॉम्प्युटर सायन्सचे प्राध्यापक योशुआ बेंजो यांनीही या निवेदनावर स्वाक्षरी केली आहे.
डॉ. हिंटन, प्राध्यापक बेंजो आणि प्राध्यापक यान लाकेन यांना कृत्रिम बुद्धिमत्तेचे गॉडफादर म्हटलं जातं. कारण त्यांनी या क्षेत्रात उल्लेखनीय काम केलंय.
यासाठी त्यांना 2018 साली संयुक्तपणे 'टर्निंग अवॉर्ड' देण्यात आला.
कॉम्प्युटर सायन्स क्षेत्रातील उल्लेखनीय योगदानासाठी हा पुरस्कार दिला जातो.
प्राध्यापक लेकन मेटासाठी काम करतात. ते म्हणतात की, सर्वनाशाशी संबंधित हा इशारा अतिशयोक्तीपूर्ण आहे.
त्यांनी ट्वीट केलंय की, "विनाशाचे हे इशारे म्हणजे एआय संशोधकांनीच आत्मपरीक्षण करण्यासारखं आहे."
इतर अनेक तज्ज्ञांची मतं देखील अशीच आहेत. त्यांचं म्हणणं आहे की, कृत्रिम बुद्धिमत्तेमुळे मानव जातीला धोका असल्याची भीती अवास्तव आहे.
प्रिन्स्टन युनिव्हर्सिटीचे कॉम्प्युटर शास्त्रज्ञ अरविंद नारायणन यांनी बीबीसीशी बोलताना सांगितलं की, साय-फाय सारख्या घटना वास्तवात घडणं शक्य नाही.
त्यांच्या मते, "सध्याच्या कृत्रिम बुद्धिमत्तेकडे तशी क्षमता नाहीये. परिणामी कृत्रिम बुद्धिमत्तेमुळे होणाऱ्या इतर धोक्यापासून लक्ष विचलित केलं जातंय."
ऑक्सफर्ड इन्स्टिट्यूट फॉर एथिक्स इन एआयमधील वरिष्ठ संशोधन सहयोगी एलिझाबेथ रेनिएरिस यांनी बीबीसीशी बोलताना सांगितलं की, त्यांना नजीकच्या काळातील धोक्यांबद्दल जास्त काळजी वाटते.
त्या म्हणतात, "कृत्रिम बुद्धिमत्तेच्या प्रगतीमुळे पक्षपातीपणा, लोकांमध्ये भेदभाव करणाऱ्या निर्णयांची क्षमता वाढेल. समाज विभागला जाईल."
त्यांच्या म्हणण्यानुसार, "यामुळे चुकीच्या माहितीचं प्रमाण वाढेल. वास्तवातील घटना समोर येणारच नाहीत. लोकांचा विश्वास उडेल. यातून डिजिटल असमानता आणखीनच वाढेल."
मग यासाठी सुरक्षित मार्ग कोणता आहे?
त्या सांगतात की, कृत्रिम बुद्धिमत्तेचे आत्तापर्यंतचे अनुभव मोफतच मिळाले आहेत. त्यांचं बहुतांश प्रशिक्षण हे मानवनिर्मित सामग्री, मजकूर, कला आणि संगीत यांच्या माध्यमातून झालं आहे. ते याच आधारावर काम करतात.
कृत्रिम बुद्धिमत्ता निर्माण करणाऱ्यांनी सामान्य लोकांची सर्व संपत्ती आणि सत्ता अत्यंत प्रभावीपणे काही खाजगी संस्थांकडे वळवली आहे.
पण सेंटर फॉर सेफ्टीचे संचालक डटॅन हेंड्रिक्स बीबीसीला सांगतात की, भविष्यातील जोखीम आणि आजची चिंता याकडे परस्परविरोधी चष्म्यातून बघता कामा नये.
ते म्हणतात, "जर आज काही मुद्दे सोडवले तर यापुढे येणाऱ्या अडचणी सोडविण्यासाठी मदत होऊ शकते."
चिंता नवी नाही
कृत्रिम बुद्धिमत्तेच्या संभाव्य धोक्याबद्दलची चिंता मार्च 2023 पासून वाढली आहे.
टेस्लाचे सर्वेसर्वा एलॉन मस्क यांच्यासह अनेक तज्ञांनी एक खुलं पत्र लिहिलं होतं. यामध्ये एआय तंत्रज्ञानाच्या पुढील पिढीचा विकास थांबविण्याची विनंती करण्यात आली होती.
पत्रात काही प्रश्न उपस्थित करण्यात आले होते, "पुढे जाऊन मानवी मेंदूची जागा घेईल अशा कृत्रिम बुद्धिमत्तेची आपण निर्मिती करायला हवी का?"
याशिवाय नवीन मोहिमेअंतर्गत एक अतिशय छोटं निवेदन प्रसिद्ध करण्यात आलं. यावर चर्चा व्हायला हवी असं म्हटलं होतं.
या निवेदनात कृत्रिम बुद्धिमत्तेच्या धोक्याची तुलना आण्विक युद्धाशी करण्यात आली आहे. ओपनएआयच्या अलीकडील एका ब्लॉगमध्ये म्हटलंय की कृत्रिम बुद्धिमत्तेला अणुऊर्जेप्रमाणे नियंत्रित करायला हवं.
ब्लॉगमध्ये लिहिलं होतं की, "कृत्रिम बुद्धिमत्ता नियंत्रित करण्यासाठी आपल्याकडे इंटरनॅशनल अॅटॉमिक एनर्जी एजन्सीच्या धर्तीवर एखादी संस्था स्थापन करण्याची आवश्यकता आहे."
ऋषी सुनक यांचा विश्वास
सॅम ऑल्टमन आणि गुगलचे मुख्य कार्यकारी सुंदर पिचई यांनी नुकतीच ब्रिटनचे पंतप्रधान ऋषी सुनक यांच्याशी कृत्रिम बुद्धिमत्ता नियंत्रित करण्याबाबत चर्चा केली.
कृत्रिम बुद्धिमत्तेमुळे निर्माण होणाऱ्या धोक्यांविषयी पत्रकारांशी चर्चा करताना सुनक यांनी अर्थव्यवस्थेला आणि समाजाला मिळणाऱ्या फायद्यांची माहिती दिली.
ते म्हणाले की, "कृत्रिम बुद्धिमत्तेच्या वापरामुळे अर्धांगवायू झालेल्या लोकांना चालण्यास मदत मिळाल्याचं तुम्ही पाहिलं असेल. याचा वापर करून नवी प्रतिजैविकं शोधली जात आहेत. पण हे सगळं सुरक्षित पद्धतीने व्हायला हवं हे आपण ठरवलं पाहिजे."
सुनक म्हणाले की, "आपण सुरक्षित राहण्यासाठी कोणत्या प्रकारची नियंत्रणं आवश्यक आहेत यावर चर्चा करण्यासाठी गेल्या आठवड्यात मी सर्व प्रमुख एआय कंपन्यांच्या मुख्य कार्यकारी अधिकाऱ्यांशी चर्चा केली.'
ब्रिटनचे पंतप्रधान ऋषी सुनक म्हणाले की, त्यांनी जी7 राष्ट्रांच्या शिखर परिषदेत इतर नेत्यांशी या विषयावर चर्चा केली असून अमेरिका देखील लवकरच यात लक्ष घालणार आहे. जी 7 राष्ट्रांनी कृत्रिम बुद्धिमत्तेसाठी एक वर्किंग कमिटी स्थापन केली आहे.
हेही वाचलंत का?
(बीबीसी न्यूज मराठीचे सर्व अपडेट्स मिळवण्यासाठी आम्हाला YouTube, Facebook, Instagram आणि Twitter वर नक्की फॉलो करा.बीबीसी न्यूज मराठीच्या सगळ्या बातम्या तुम्ही Jio TV app वर पाहू शकता. 'गोष्ट दुनियेची', 'सोपी गोष्ट' आणि '3 गोष्टी' हे मराठीतले बातम्यांचे पहिले पॉडकास्ट्स तुम्ही Gaana, Spotify, JioSaavn आणि Apple Podcasts इथे ऐकू शकता.)