क्या रोबोट सीख सकता है सही-ग़लत में फर्क करना? - दुनिया जहान

रोबोट

इमेज स्रोत, mennovandijk

    • Author, मानसी दाश
    • पदनाम, बीबीसी संवाददाता

रेलवे ट्रैक पर सरपट दौड़ रही एक ट्रेन के ब्रेक फेल हो गए हैं. ट्रैक पर पांच लोग हैं. उन्हें बचाने के लिए आप ट्रैक बदल सकते हैं. लेकिन दूसरे ट्रैक पर एक आदमी काम कर रहा है और ट्रैक बदला तो उसकी मौत तय है.

आप क्या करेंगे- पांच जानें बचाएंगे या एक?

इस सवाल का जवाब आज आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में काम कर रहे वैज्ञानिकों बड़ा सरदर्द बन गया है. इसका जवाब अगर इंसानों के लिए मुश्किल है तो रोबोट क्या करेगा?

दुनिया जहान में आज पड़ताल इस बात की कि इस तरह की परिस्थिति में जहां फ़ैसले लेना इंसानों के लिए भी मुश्किल है वहां रोबोट फ़ैसले कैसे लेगा. हमारा सवाल है कि क्या रोबोट इंसानों की तरह सोच विचार कर फ़ैसले ले सकेगा?

जब हो जीने-मरने का सवाल

वेन्डल वॉलक येल युनिवर्सिटी में बीते कई सालों से तकनीक में नैतिकता यानी एथिक्स इन टेक्नोलॉजी पढ़ाते हैं.

अपनी क़िताब 'अ डेन्जरस मास्टर: हाओ टू कीप टेक्नोलॉजी फ्रॉम स्लिप्पिंग बियॉन्ड आवर कंट्रोल' में वेन्डल भविष्य की तकनीक और इसे काबू करने को लेकर चुनौतियों के बारे में चर्चा करते हैं.

वो ऐसे सवालों के जवाब तलाशते हैं जो इंसान के लिए बेहद मुश्किल होते हैं. जैसा हमने शुरूआत में पूछा- ट्रेन किसे बचाए- पांच लोगों को या एक व्यक्ति को. वेन्डल एक अलग रास्ता सुझाते हैं.

वेंडल वॉलक

इमेज स्रोत, amazon.com

वेंडल वॉलक कहते हैं, "ट्रेन के लिए ट्रैक के ऊपर से होते हुए एक पुल बनाइए. फिर ट्रैक पर किसी व्यक्ति को धक्का दे दीजिए. इससे ट्रेन चला रहा रोबोट सतर्क हो जाएगा और पांच जानें बच जाएंगी."

सुनने में लगता है कि कुछ लोगों को बचाने के लिए एक की कुर्बानी देने से समस्या का हल निकल सकता है, लेकिन क्या ये सही होगा? असल में ये नैतिकता यानी एथिक्स का सवाल है.

समस्या के इस समाधान को उपयोगितावादी सही ठहरा सकते हैं, क्योंकि वो मानते हैं कि ज़्यादा लोगों के हित में कुछ की कुर्बानी जायज़ है. लेकिन कई इसे ग़लत करार देते हैं.

वो कहते हैं, "कुछ नैतिक मूल्य होते हैं जो अधिक लोगों का हित साबित करने वाले किसी भी तरह के आंकड़ों से ऊपर होते हैं."

तकनीक और नैतिकता के बीच का बड़ा सवाल यही है कि कौन-से नैतिक मूल्य और किसके. जैगुआर, फोर्ड, टेस्ला, हॉन्डा और वोल्वो जैसी कंपनियां बिना ड्राइवर की कार बनाने की होड़ में हैं. उनके सामने तकनीकी चुनौतियों के साथ-साथ ये सवाल भी है कि क्या रोबोट में सही-ग़लत का फ़ैसला लेने की क्षमता डाली जा सकती है.

वेंडल वॉलक सवाल करते हैं, "अगर कार के आगे सिर्फ बच्चे हैं तो रोबोट क्या करेगा? अगर कार में सवार चार लोगों में एक बच्चा है और आगे चार लोग हैं तो वो किसे बचाएगा? क्या हो अगर रोबोट के हिसाब से दुर्घटना में कोई मौत नहीं होगी बस एक व्यक्ति घायल होगा. इस तरह के कई सवाल हो सकते हैं जिनका जवाब मुश्किल होता है."

रोज़मर्रा की ज़िंदगी में हमारे सामने ऐसे सवाल नहीं आते, लेकिन किसी दिन अचानक ये सवाल सामने आ सकते हैं, और ऐसे में फ़ैसला किसका होगा - कार निर्माता का, ड्राइवर का या फिर सरकार का.

इस तरह के सवालों पर लोगों की राय जानने के लिए मैसेचुसेट्स इंस्टीट्यूट ऑफ़ टेक्नोलॉजी ने मॉरल मशीन नाम की एक वेबसाइट बनाई.

वेंडल वॉलक बताते हैं, "उन्हें क़रीब 32 लाख जवाब मिले. कुछ की राय थी कि अधिक जानें बचाने के लिए कुछ की बलि देना सही है. लेकिन अधिकांश लोगों का कहना था कि वो ऐसी कार नहीं खरीदेंगे जो दुर्घटना की स्थिति में कार सवार को मारने का फ़ैसला ले सकती हो."

वेन्डल वॉलक कहते हैं इस सवाल का जवाब शायद ही किसी से पास हो. फिर भी, मान लेते हैं कि कुछ नैतिक सवालों के उत्तर पर हम एकमत हैं.

अब हमारे सामने दूसरा बड़ा सवाल है- क्या इन समाधानों को रोबोट में प्रोग्राम करना संभव है?

मॉरल मशीन वेबसाइट में पूछे सवालों का एक स्क्रीनशॉट

इमेज स्रोत, moralmachine.net

इमेज कैप्शन, मॉरल मशीन वेबसाइट में पूछे गए सवालों में से का एक स्क्रीनशॉट

रोबोट और मानवाधिकार

साल 2004 में रोबोएथिक्स पर दुनिया के पहले अंततराष्ट्रीय सम्मेलन का आयोजन हुआ. सम्मेलन में युद्ध में रोबोट के इस्तेमाल और रोबोट इंसान का आदेश मानने से मना करे तो क्या हो, जैसे विषयों पर चर्चा हुई.

जॉर्जिया इंस्टीट्यूट ऑफ़ टेक्नोलॉजी में मोबाइल रोबोट लैबोरेटरी के निदेशक रॉनल्ड आर्किन्स भी इस सम्मेलन में शामिल हुए. यहां से लौटने के बाद उन्होंने रोबोट और नैतिकता विषय पर पढ़ाना शुरू किया.

वो रोबोटिक हथियारों के ख़तरों के बारे में चेतावनी देते हैं.

वो कहते हैं, "मैं हथियार के रूप में रोबोट के इस्तेमाल के ख़िलाफ़ हूं, मैं इस पर रोक लगाने के पक्ष में हूं. आप इसे काबू नहीं कर सकते और ये बेहद ख़तरनाक हो सकते हैं. कौन चाहेगा कि दुनिया में ऐसे हथियार मौजूद हों जो अपनी मर्ज़ी से किसी को मार सकते हों."

मिसाइलों के मामले में अब ऐसे हथियार बनने लगे हैं जो सामने से आ रहे ख़तरे को देख कर रास्ता बदल सकते हैं. हाल में रूस ने ऐसी मशीनगन बनाई है जो बिना इंसानी मदद के अपना टारगेट पहचान कर और उसे नष्ट कर सकती है.

रूस का कलाश्निकोव ग्रूप कई तरह के आधुनिक ऑटोमैटिक हथियार बना रहा है

इमेज स्रोत, Kalasnikov Gruop

इमेज कैप्शन, रूस का कलाश्निकोव ग्रूप कई तरह के आधुनिक ऑटोमैटिक हथियार बना रहा है

लेकिन क्या नई पीढ़ी के इस तरह के रोबोटिक हथियारों में सही-ग़लत का फ़ैसला लेने का प्रोग्राम फिट किया जा सकता है?

आर्किन्स इसके पक्ष में हैं और मानते हैं कि रोबोट्स को मानवाधिकारों का सम्मान करना सिखाया जा सकता है.

वो कहते हैं, "हम मौजूदा नैतिक मूल्यों को देख सकते हैं और इन्हें रोबोट में प्रोग्राम कर सकते हैं, ताकि वो बेहतर फ़ैसले ले सकें. ठीक वैसे, जैसे किसी सैनिक को बंदूक देकर हम ये नहीं कहते कि किसे मारना है ये फ़ैसला वो खुद ले. हम उसे सही-ग़लत के बारे में सिखाते हैं और उम्मीद करते हैं कि वो इसी दायरे में काम करेगा. उसे बताया जाता है कि अलग-अलग परिस्थितियों में उसे किस आधार फ़ैसला लेना है."

तकनीकी स्तर पर ये बेहद मुश्किल है. आख़िर रोबोट कैसे समझेगा कि हाथ में चाकू लेकर खड़ा डॉक्टर व्यक्ति को बचा रहा है.

लेकिन आर्किन्स मानते हैं कि इन मुश्किल सवालों के बावजूद युद्ध में रोबोटिक हथियार बेहतर हैं क्योंकि वक्त पड़ने पर वो इंसानों से बेहतर फ़ैसले ले सकते हैं. रोबोट न तो किसी पर नाराज़ होते हैं, न कुंठा का शिकार होते हैं, उनमें जलन नहीं होती और वो बदला नहीं लेना चाहते. इसलिए रोबोट वो ग़लतियां नहीं करेंगे जो इंसान करते हैं.

किलर रोबोट

इमेज स्रोत, Getty Images

लेकिन फिर, रोबोट प्यार और अपराध-बोध जैसी भावनाएं नहीं समझ सकते जो इंसान को ग़लतियां दोहराने से रोकती हैं.

रॉनल्ड आर्किन्स कहते हैं, "रोबोटिक हथियारों के इस्तेमाल से पहले इस बात पर विचार किया जाता है कि हमले में कितने आम नागरिक हताहत हो सकते हैं और कितनी संपत्ति को नुक़सान हो सकता है. ये बिल्कुल संभव है कि जितना अंदाज़ा हो, नुक़सान उससे अधिक हो. ऐसे में अपराध-बोध होगा तो सैनिक ग़लती नहीं दोहराएगा और हो सकता है कि वो फिर उस हथियार का इस्तेमाल न करे."

ये माना जा सकता है कि रोबोटिक हथियारों से लैस दो मुल्कों के बीच युद्ध आम नागरिकों के लिए घातक साबित हो सकता है. गणतांत्रिक मुल्कों के लिए इसके भयंकर राजनीतिक परिणाम हो सकते हैं.

वो कहते हैं, "मैं युद्ध नहीं चाहता. मैं नहीं चाहता कि ऐसे हथियारों का कभी इस्तेमाल हो. लेकिन अगर हम बेवकूफों की तरह एकदूसरे से लड़ना जारी रखेंगे तो मुझे लगता है कि आम नागरिकों को सुरक्षा के बेहतर रास्ते तलाशने चाहिए. हमें आम नागरिकों को बचाने की हरसंभव कोशिश करनी चाहिए."

आर्किन्स रोबोट के प्रोग्राम में अंतरराष्ट्रीय मानवाधिकारों के मूल्यों को भी जोड़ना चाहते हैं. लेकिन रोबोट को नैतिकता सिखाने का यही एकमात्र तरीका नहीं.

वीडियो कैप्शन, बीबीसी शॉर्ट्स

किसके और कौन-से नैतिक मूल्य

सुज़ैन और माइकल एंडरसन केयरबॉट यानी इंसानों की मदद के लिए बने रोबोट के कॉन्सेप्ट पर काम कर रहे हैं. सुज़ैन फ़िलोसॉफ़र हैं, उनके पति माइकल कंप्यूटर साइंटिस्ट हैं.

दोनों एक एथिकल रोबोट बना रहे हैं यानी ऐसा रोबोट जिसके प्रोग्राम में नैतिकता के मूल्य जोड़े गए हों.

माइकल समझाते हैं, "केयरबॉट एक खास तरह का रोबोट होता है जो बुज़ुर्गों की मदद कर सकता है. आप घर में हों या बाहर, ये बॉट आपको याद दिलाता है कि आपको कब दवा लेनी है, कब टीवी देखना है. ये वो सारे काम करता है जिसके लिए आपको लोगों की मदद चाहिए."

छोड़िए YouTube पोस्ट, 1
Google YouTube सामग्री की इजाज़त?

इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.

चेतावनी: तीसरे पक्ष की सामग्री में विज्ञापन हो सकते हैं.

पोस्ट YouTube समाप्त, 1

शोध के दौरान सुज़ैन और माइकल को एक वीडियो मिला जिसमें एक रोबोट एक बुज़ुर्ग महिला की मदद कर रही है.

इस वीडियो ने दोनों को कुछ हद तक डरा दिया.

सुज़ैन बताती हैं, "उस महिला के एक रिश्तेदार ने रोबोट को उनके घर पर देखा. कई बार उन्हें लगा कि महिला जो भी कर रही हैं वो कोई देख रहा है. ये एक तरह से उनकी निजता का ख़त्म होना था. हममें से अधिकांश लोगों को इस पर ऐतराज़ होगा क्योंकि ये एथिक्स का सवाल है."

माइकल कहते हैं कि ये एक बेहतरीन वीडियो था जो इस बात का उदाहरण था कि "एथिक्स के सवाल को इंजीनियरों पर छोड़ दिया जाए तो क्या हो सकता है."

छोड़िए YouTube पोस्ट, 2
Google YouTube सामग्री की इजाज़त?

इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.

चेतावनी: तीसरे पक्ष की सामग्री में विज्ञापन हो सकते हैं.

पोस्ट YouTube समाप्त, 2

रॉनल्ड आर्किन्स की तरह सुज़ैन और माइकल मानते हैं कि रोबोट्स के प्रोग्राम में एथिक्स जोड़ना संभव है.

वो कहते हैं कि मशीन लर्निंग के ज़रिए रोबोट के प्रोग्राम में नैतिक मूल्य जोड़े जा सकते हैं जिनका आधार दूसरों को खुशी देना और झगड़ों से बचना हो. इसके बाद रोबोट परिस्थिति के अनुसार सही फ़ैसले ले सकता है.

सुज़ैन कहती हैं, "कभी-कभी छोटे से छोटा लगने वाला फ़ैसला भी बेहद महत्वपूर्ण हो सकता है. बैटरी ख़त्म होने की स्थिति में खुद को चार्ज करना मामूली बात है, लेकिन हो सकता है कि रोबोट को इससे पहले मरीज़ को दवा देने का काम करना हो."

सुज़ैन और माइकल के अनुसार रोबोट्स के प्रोग्राम में नैतिकता के वही मूल्य जोड़े जाने चाहिए जिन्हें लेकर वैश्विक स्तर पर विशेषज्ञों की सहमति बन सके. लेकिन वक्त के साथ नैतिकता के मानदंड भी बदलते हैं, जैसे कुछ सौ साल पहले दास प्रथा थी जो अब ग़लत है.

वीडियो कैप्शन, ऐसा रोबोट देखा है, जो विकलांग को चला दे?

दूसरी तरफ हम ये मानते हैं कि रोबोट इंसान से अधिक ताकतवर और काबिल होंगे. हो सकता है कि नैतिकता के पैमाने पर भी वो इंसानों से बेहतर हों.

सुज़ैन कहती हैं, "मुझे लगता है कि कहीं ऐसा न हो कि रोबोट्स हमें ये आइना दिखाएं कि हम कैसा व्यवहार करते हैं. सच कहा जाए तो दुनिया में काफी तबाही इंसान में नैतिकता की कमी के कारण हुई है और उसने दूसरों के लिए भी मुश्किलें पैदा की हैं."

लौटते हैं अपने सवाल पर- क्या रोबोट्स को ऐथिक्स सिखाया जा सकता है. ऐसा करने के अलग-अलग तरीके हो सकते हैं, लेकिन सबसे पहले इस बात पर सहमति बनानी होगी कि वो कौन-से एथिक्स हैं जो सिखाने हैं.

लेकिन फिर, विशेषज्ञों को ये भी चिंता है कहीं रोबोट इंसान की तरह न बन जाए.

रोबोट वही करेगा जो सीखेगा

जोआना ब्रायसन बर्लिन के हर्टी स्कूल ऑफ़ गवर्नेंस में एथिक्स एंड टेकनोलॉजी की प्रोफ़ेसर हैं. वो रोबोट्स के मानवीकरण को भयानक कदम मानती हैं.

वो कहती हैं कि रोबोट्स को सीखा नहीं सकते, क्योंकि वो छात्र नहीं होते. वो वही करते हैं जो प्रोग्राम में लिखा होता है और ये कभी-कभी ग़लत भी हो सकता है.

वो कहती हैं, "डेमॉन्स्ट्रेशन के लिए हम इसकी प्रोग्रामिंग कर सकते हैं लेकिन इसे सिखाना नहीं कह सकते क्योंकि सिखाने की प्रक्रिया में लोगों के बीच इंसानी रिश्ते बनते हैं."

जोआना उदाहरण देती हैं कि अगर रोबोट को लाखों पंक्तियां का एक डेटाबेस दे दिया जाए और उसे इंसानों की नकल करने को कहा जाए, तो हो सकता है कि वो काम के आधार पर महिला और पुरुष के बीच का फर्क न कर सके.

वो कहती हैं, "महिलाओं को घरेलू काम से जोड़ कर देखा जाता है. ऐसे में हो सकता है कि रोबोट किचन और साफ-सफाई के काम को महिला के नाम से जोड़े और पुरुषों के नाम के साथ वो बाहर के काम जोड़ दे. लेकिन इसे उसकी ग़लती कहना सही नहीं होगा क्योंकि ये उस सामाजिक व्यवस्था के कारण है जो इंसान की बनाई हुई है. रोबोट उसी को तो दोहराएगा."

यानी रोबोट इंसानों की बनाई सामाजिक व्यवस्था और पूर्वाग्रहों से परे नहीं होगा बल्कि उसका हिस्सा बन जाएगा.

क्यू नाम का रोबोट जो बास्केटबॉल खेल सकता है

इमेज स्रोत, EPA/WU HONG

इमेज कैप्शन, क्यू नाम का रोबोट जो बास्केटबॉल खेल सकता है

आप कह सकते हैं- रोबोट जो सीखेगा वही दोहराएगा, या कहें रोबोट को इंसान जो सिखाएगा वो वही दोहराएगा.

मतलब ये कि रोबोट्स को एथिक्स सिखाने के लिए इंसान को खुद अपनी बनाई व्यवस्था से लड़ना होगा और सही मायनों में एक न्यायपूर्ण समाज बनाना होगा. रोबोट्स की ग़लतियों के लिए एक तरह से उसे बनाने वाला ज़िम्मेदार होगा.

जोआना कहती हैं, "कुछ लोग ये दलील दे सकते हैं कि उन्होंने रोबोट्स को अच्छे से प्रोग्राम किया है, मशीन लर्निंग और डीप लर्निंग का इस्तेमाल किया है और रोबोट की ग़लती के लिए वो ज़िम्मेदार नहीं. लेकिन ये भी सही है कि अगर आपका पालतू कुत्ता किसी पर हमला करे तो वजह कोई भी हो, ज़िम्मेदार आप ही होते हैं."

यानी आप ये नहीं कह सकते कि मुझे नहीं पता मेरे रोबोट ने ये क्यों किया. और आर्टिफ़िशियन इंटेलिजेंस के क्षेत्र में यही वो अहम मोड़ है जहां सरकारों को दखल देने की ज़रूरत है.

वो कहती हैं, "आप आर्किटेक्ट का उदाहरण देख सकते हैं. दशकों पहले से उनके लिए नियम बनाए जाते रहे हैं. लोग नहीं चाहते कि इमारतें टूटें इसलिए आर्किटेक्ट को साबित करना होता है कि उसकी इमारत हर मौसम में खड़ी रहेगी. और तो और उन्हें कई तरह की इजाज़त लेनी होती है. तकनीक के क्षेत्र में भी यही करने की ज़रूरत है."

वीडियो कैप्शन, आर्टिफ़िशियल पेड़ जो सोखेंगे वातावरण से कार्बन

आप मानें या न मानें आने वाले वक्त में रोबोट्स कई छोटे-बड़े और महत्वपूर्ण फ़ैसले लेंगे. हम उम्मीद कर सकते हैं कि रोबोट्स के लिए एथिक्स को लेकर वैश्विक स्तर पर सहमति बन पाए.

हमें ये भी सुनिश्चित करना होगा कि रोबोट्स इंसानों की बनाई व्यवस्था का हिस्सा न बनें और उनके फ़ैसले पूर्वाग्रहों पर आधारित न हों.

लेकिन ये भी हो सकता है कि इस मामले में रोबोट एक कदम आगे साबित हों और वो हम इंसानों को और बेहतर इंसान बनाएं.

वीडियो कैप्शन, इंसानो से बातें करना चाहती है रोबोट सोफ़िया
वीडियो कैप्शन, मेडिकल क्षेत्र में आर्टिफ़िशियल इंटेलिजेंस का इस्तेमाल

(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर, इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)