आर्टिफिशियल इंटेलिजन्सला अणुऊर्जेप्रमाणे नियंत्रित करण्याची मागणी होतेय, कारण...

    • Author, क्रिस वॉलेंस
    • Role, टेक्नोलॉजी रिपोर्टर

आर्टिफिशियल इंटेलिजन्स अर्थात कृत्रिम बुद्धिमत्ता मानवी अस्तित्वास धोकादायक ठरू शकते असा इशारा ओपन एआय आणि गुगल डीपमाईंडच्या प्रमुखांनी दिला आहे.

यासंदर्भात त्यांनी दिलेलं निवेदन 'सेंटर फॉर एआय सेफ्टी'च्या वेबपेजवर प्रसिद्ध करण्यात आलंय. त्यांच्या या निवेदनावर अनेक तज्ज्ञांनी आपली सहमती दर्शवली आहे.

तज्ज्ञांनी इशारा देताना म्हटलंय की, "समाजावर परिणाम होणाऱ्या धोक्यांमध्ये आण्विक युद्ध, साथरोग तर आहेच. पण सोबतच कृत्रिम बुद्धिमत्तेमुळे मानवी अस्तित्वाला निर्माण होणारा धोका कमी करण्यावर जगाने भर दिला पाहिजे. "

पण ही भीती अतिशयोक्तीपूर्ण असल्याचं अनेकांचं मत आहे.

चॅटजीपीटीचे मुख्य कार्यकारी अधिकारी सॅम ऑल्टमन, गुगल डीपमाईंडचे मुख्य कार्यकारी डेमिस हसाबिस आणि एंथ्रोपिकचे डॅरियो अमोदेई या मताशी सहमत आहेत.

कोणते धोके उद्भवू शकतात?

सेंटर फॉर एआय सेफ्टी वेबसाइटने आपत्तीजनक परिस्थितीची संभाव्य सूची तयार केली आहे.

कृत्रिम बुद्धिमत्तेचा वापर शस्त्रासारखा केला जाऊ शकतो. जसं की,

ड्रग डिस्कव्हरी टूल्सचा वापर करून रासायनिक हत्यारं बनवली जाऊ शकतात.

कृत्रिम बुद्धिमत्तेच्या मदतीने तयार करण्यात आलेली चुकीची माहिती समाजाला अस्थिर करू शकते आणि सामूहिक निर्णय घेण्यावर प्रभाव टाकू शकते.

कृत्रिम बुद्धिमत्ता काही लोकांपुरतीच मर्यादित राहील. त्यातून सरकार लोकांवर पाळत ठेवण्यासाठी, दडपशाही, सेन्सॉरशिपसाठी त्याचा वापर करण्याची शक्यता आहे.

'व्हॉल ई' या चित्रपटात दाखवल्याप्रमाणे मानवाचं कृत्रिम बुद्धिमत्तेवरील अवलंबित्व वाढू लागेल.

हा धोका अतिशयोक्तीपूर्ण आहे का?

डॉ. जेफ्री हिंटन यांनी देखील सेंटर फॉर एआय सेफ्टीने दिलेल्या इशाऱ्याचं समर्थन केलंय. त्यांनी सुपर इंटेलिजेंट अशा कृत्रिम बुद्धिमत्तेच्या धोक्यांबद्दल आधीच माहिती दिली होती.

मॉन्ट्रियल विद्यापीठातील कॉम्प्युटर सायन्सचे प्राध्यापक योशुआ बेंजो यांनीही या निवेदनावर स्वाक्षरी केली आहे.

डॉ. हिंटन, प्राध्यापक बेंजो आणि प्राध्यापक यान लाकेन यांना कृत्रिम बुद्धिमत्तेचे गॉडफादर म्हटलं जातं. कारण त्यांनी या क्षेत्रात उल्लेखनीय काम केलंय.

यासाठी त्यांना 2018 साली संयुक्तपणे 'टर्निंग अवॉर्ड' देण्यात आला.

कॉम्प्युटर सायन्स क्षेत्रातील उल्लेखनीय योगदानासाठी हा पुरस्कार दिला जातो.

प्राध्यापक लेकन मेटासाठी काम करतात. ते म्हणतात की, सर्वनाशाशी संबंधित हा इशारा अतिशयोक्तीपूर्ण आहे.

त्यांनी ट्वीट केलंय की, "विनाशाचे हे इशारे म्हणजे एआय संशोधकांनीच आत्मपरीक्षण करण्यासारखं आहे."

इतर अनेक तज्ज्ञांची मतं देखील अशीच आहेत. त्यांचं म्हणणं आहे की, कृत्रिम बुद्धिमत्तेमुळे मानव जातीला धोका असल्याची भीती अवास्तव आहे.

प्रिन्स्टन युनिव्हर्सिटीचे कॉम्प्युटर शास्त्रज्ञ अरविंद नारायणन यांनी बीबीसीशी बोलताना सांगितलं की, साय-फाय सारख्या घटना वास्तवात घडणं शक्य नाही.

त्यांच्या मते, "सध्याच्या कृत्रिम बुद्धिमत्तेकडे तशी क्षमता नाहीये. परिणामी कृत्रिम बुद्धिमत्तेमुळे होणाऱ्या इतर धोक्यापासून लक्ष विचलित केलं जातंय."

ऑक्सफर्ड इन्स्टिट्यूट फॉर एथिक्स इन एआयमधील वरिष्ठ संशोधन सहयोगी एलिझाबेथ रेनिएरिस यांनी बीबीसीशी बोलताना सांगितलं की, त्यांना नजीकच्या काळातील धोक्यांबद्दल जास्त काळजी वाटते.

त्या म्हणतात, "कृत्रिम बुद्धिमत्तेच्या प्रगतीमुळे पक्षपातीपणा, लोकांमध्ये भेदभाव करणाऱ्या निर्णयांची क्षमता वाढेल. समाज विभागला जाईल."

त्यांच्या म्हणण्यानुसार, "यामुळे चुकीच्या माहितीचं प्रमाण वाढेल. वास्तवातील घटना समोर येणारच नाहीत. लोकांचा विश्वास उडेल. यातून डिजिटल असमानता आणखीनच वाढेल."

मग यासाठी सुरक्षित मार्ग कोणता आहे?

त्या सांगतात की, कृत्रिम बुद्धिमत्तेचे आत्तापर्यंतचे अनुभव मोफतच मिळाले आहेत. त्यांचं बहुतांश प्रशिक्षण हे मानवनिर्मित सामग्री, मजकूर, कला आणि संगीत यांच्या माध्यमातून झालं आहे. ते याच आधारावर काम करतात.

कृत्रिम बुद्धिमत्ता निर्माण करणाऱ्यांनी सामान्य लोकांची सर्व संपत्ती आणि सत्ता अत्यंत प्रभावीपणे काही खाजगी संस्थांकडे वळवली आहे.

पण सेंटर फॉर सेफ्टीचे संचालक डटॅन हेंड्रिक्स बीबीसीला सांगतात की, भविष्यातील जोखीम आणि आजची चिंता याकडे परस्परविरोधी चष्म्यातून बघता कामा नये.

ते म्हणतात, "जर आज काही मुद्दे सोडवले तर यापुढे येणाऱ्या अडचणी सोडविण्यासाठी मदत होऊ शकते."

चिंता नवी नाही

कृत्रिम बुद्धिमत्तेच्या संभाव्य धोक्याबद्दलची चिंता मार्च 2023 पासून वाढली आहे.

टेस्लाचे सर्वेसर्वा एलॉन मस्क यांच्यासह अनेक तज्ञांनी एक खुलं पत्र लिहिलं होतं. यामध्ये एआय तंत्रज्ञानाच्या पुढील पिढीचा विकास थांबविण्याची विनंती करण्यात आली होती.

पत्रात काही प्रश्न उपस्थित करण्यात आले होते, "पुढे जाऊन मानवी मेंदूची जागा घेईल अशा कृत्रिम बुद्धिमत्तेची आपण निर्मिती करायला हवी का?"

याशिवाय नवीन मोहिमेअंतर्गत एक अतिशय छोटं निवेदन प्रसिद्ध करण्यात आलं. यावर चर्चा व्हायला हवी असं म्हटलं होतं.

या निवेदनात कृत्रिम बुद्धिमत्तेच्या धोक्याची तुलना आण्विक युद्धाशी करण्यात आली आहे. ओपनएआयच्या अलीकडील एका ब्लॉगमध्ये म्हटलंय की कृत्रिम बुद्धिमत्तेला अणुऊर्जेप्रमाणे नियंत्रित करायला हवं.

ब्लॉगमध्ये लिहिलं होतं की, "कृत्रिम बुद्धिमत्ता नियंत्रित करण्यासाठी आपल्याकडे इंटरनॅशनल अॅटॉमिक एनर्जी एजन्सीच्या धर्तीवर एखादी संस्था स्थापन करण्याची आवश्यकता आहे."

ऋषी सुनक यांचा विश्वास

सॅम ऑल्टमन आणि गुगलचे मुख्य कार्यकारी सुंदर पिचई यांनी नुकतीच ब्रिटनचे पंतप्रधान ऋषी सुनक यांच्याशी कृत्रिम बुद्धिमत्ता नियंत्रित करण्याबाबत चर्चा केली.

कृत्रिम बुद्धिमत्तेमुळे निर्माण होणाऱ्या धोक्यांविषयी पत्रकारांशी चर्चा करताना सुनक यांनी अर्थव्यवस्थेला आणि समाजाला मिळणाऱ्या फायद्यांची माहिती दिली.

ते म्हणाले की, "कृत्रिम बुद्धिमत्तेच्या वापरामुळे अर्धांगवायू झालेल्या लोकांना चालण्यास मदत मिळाल्याचं तुम्ही पाहिलं असेल. याचा वापर करून नवी प्रतिजैविकं शोधली जात आहेत. पण हे सगळं सुरक्षित पद्धतीने व्हायला हवं हे आपण ठरवलं पाहिजे."

सुनक म्हणाले की, "आपण सुरक्षित राहण्यासाठी कोणत्या प्रकारची नियंत्रणं आवश्यक आहेत यावर चर्चा करण्यासाठी गेल्या आठवड्यात मी सर्व प्रमुख एआय कंपन्यांच्या मुख्य कार्यकारी अधिकाऱ्यांशी चर्चा केली.'

ब्रिटनचे पंतप्रधान ऋषी सुनक म्हणाले की, त्यांनी जी7 राष्ट्रांच्या शिखर परिषदेत इतर नेत्यांशी या विषयावर चर्चा केली असून अमेरिका देखील लवकरच यात लक्ष घालणार आहे. जी 7 राष्ट्रांनी कृत्रिम बुद्धिमत्तेसाठी एक वर्किंग कमिटी स्थापन केली आहे.

हेही वाचलंत का?

(बीबीसी न्यूज मराठीचे सर्व अपडेट्स मिळवण्यासाठी आम्हाला YouTube, Facebook, Instagram आणि Twitter वर नक्की फॉलो करा.बीबीसी न्यूज मराठीच्या सगळ्या बातम्या तुम्ही Jio TV app वर पाहू शकता. 'गोष्ट दुनियेची', 'सोपी गोष्ट' आणि '3 गोष्टी' हे मराठीतले बातम्यांचे पहिले पॉडकास्ट्स तुम्ही Gaana, Spotify, JioSaavn आणि Apple Podcasts इथे ऐकू शकता.)