क्या रोबोट सीख सकता है सही-ग़लत में फर्क करना? - दुनिया जहान

    • Author, मानसी दाश
    • पदनाम, बीबीसी संवाददाता

रेलवे ट्रैक पर सरपट दौड़ रही एक ट्रेन के ब्रेक फेल हो गए हैं. ट्रैक पर पांच लोग हैं. उन्हें बचाने के लिए आप ट्रैक बदल सकते हैं. लेकिन दूसरे ट्रैक पर एक आदमी काम कर रहा है और ट्रैक बदला तो उसकी मौत तय है.

आप क्या करेंगे- पांच जानें बचाएंगे या एक?

इस सवाल का जवाब आज आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में काम कर रहे वैज्ञानिकों बड़ा सरदर्द बन गया है. इसका जवाब अगर इंसानों के लिए मुश्किल है तो रोबोट क्या करेगा?

दुनिया जहान में आज पड़ताल इस बात की कि इस तरह की परिस्थिति में जहां फ़ैसले लेना इंसानों के लिए भी मुश्किल है वहां रोबोट फ़ैसले कैसे लेगा. हमारा सवाल है कि क्या रोबोट इंसानों की तरह सोच विचार कर फ़ैसले ले सकेगा?

जब हो जीने-मरने का सवाल

वेन्डल वॉलक येल युनिवर्सिटी में बीते कई सालों से तकनीक में नैतिकता यानी एथिक्स इन टेक्नोलॉजी पढ़ाते हैं.

अपनी क़िताब 'अ डेन्जरस मास्टर: हाओ टू कीप टेक्नोलॉजी फ्रॉम स्लिप्पिंग बियॉन्ड आवर कंट्रोल' में वेन्डल भविष्य की तकनीक और इसे काबू करने को लेकर चुनौतियों के बारे में चर्चा करते हैं.

वो ऐसे सवालों के जवाब तलाशते हैं जो इंसान के लिए बेहद मुश्किल होते हैं. जैसा हमने शुरूआत में पूछा- ट्रेन किसे बचाए- पांच लोगों को या एक व्यक्ति को. वेन्डल एक अलग रास्ता सुझाते हैं.

वेंडल वॉलक कहते हैं, "ट्रेन के लिए ट्रैक के ऊपर से होते हुए एक पुल बनाइए. फिर ट्रैक पर किसी व्यक्ति को धक्का दे दीजिए. इससे ट्रेन चला रहा रोबोट सतर्क हो जाएगा और पांच जानें बच जाएंगी."

सुनने में लगता है कि कुछ लोगों को बचाने के लिए एक की कुर्बानी देने से समस्या का हल निकल सकता है, लेकिन क्या ये सही होगा? असल में ये नैतिकता यानी एथिक्स का सवाल है.

समस्या के इस समाधान को उपयोगितावादी सही ठहरा सकते हैं, क्योंकि वो मानते हैं कि ज़्यादा लोगों के हित में कुछ की कुर्बानी जायज़ है. लेकिन कई इसे ग़लत करार देते हैं.

वो कहते हैं, "कुछ नैतिक मूल्य होते हैं जो अधिक लोगों का हित साबित करने वाले किसी भी तरह के आंकड़ों से ऊपर होते हैं."

तकनीक और नैतिकता के बीच का बड़ा सवाल यही है कि कौन-से नैतिक मूल्य और किसके. जैगुआर, फोर्ड, टेस्ला, हॉन्डा और वोल्वो जैसी कंपनियां बिना ड्राइवर की कार बनाने की होड़ में हैं. उनके सामने तकनीकी चुनौतियों के साथ-साथ ये सवाल भी है कि क्या रोबोट में सही-ग़लत का फ़ैसला लेने की क्षमता डाली जा सकती है.

वेंडल वॉलक सवाल करते हैं, "अगर कार के आगे सिर्फ बच्चे हैं तो रोबोट क्या करेगा? अगर कार में सवार चार लोगों में एक बच्चा है और आगे चार लोग हैं तो वो किसे बचाएगा? क्या हो अगर रोबोट के हिसाब से दुर्घटना में कोई मौत नहीं होगी बस एक व्यक्ति घायल होगा. इस तरह के कई सवाल हो सकते हैं जिनका जवाब मुश्किल होता है."

रोज़मर्रा की ज़िंदगी में हमारे सामने ऐसे सवाल नहीं आते, लेकिन किसी दिन अचानक ये सवाल सामने आ सकते हैं, और ऐसे में फ़ैसला किसका होगा - कार निर्माता का, ड्राइवर का या फिर सरकार का.

इस तरह के सवालों पर लोगों की राय जानने के लिए मैसेचुसेट्स इंस्टीट्यूट ऑफ़ टेक्नोलॉजी ने मॉरल मशीन नाम की एक वेबसाइट बनाई.

वेंडल वॉलक बताते हैं, "उन्हें क़रीब 32 लाख जवाब मिले. कुछ की राय थी कि अधिक जानें बचाने के लिए कुछ की बलि देना सही है. लेकिन अधिकांश लोगों का कहना था कि वो ऐसी कार नहीं खरीदेंगे जो दुर्घटना की स्थिति में कार सवार को मारने का फ़ैसला ले सकती हो."

वेन्डल वॉलक कहते हैं इस सवाल का जवाब शायद ही किसी से पास हो. फिर भी, मान लेते हैं कि कुछ नैतिक सवालों के उत्तर पर हम एकमत हैं.

अब हमारे सामने दूसरा बड़ा सवाल है- क्या इन समाधानों को रोबोट में प्रोग्राम करना संभव है?

रोबोट और मानवाधिकार

साल 2004 में रोबोएथिक्स पर दुनिया के पहले अंततराष्ट्रीय सम्मेलन का आयोजन हुआ. सम्मेलन में युद्ध में रोबोट के इस्तेमाल और रोबोट इंसान का आदेश मानने से मना करे तो क्या हो, जैसे विषयों पर चर्चा हुई.

जॉर्जिया इंस्टीट्यूट ऑफ़ टेक्नोलॉजी में मोबाइल रोबोट लैबोरेटरी के निदेशक रॉनल्ड आर्किन्स भी इस सम्मेलन में शामिल हुए. यहां से लौटने के बाद उन्होंने रोबोट और नैतिकता विषय पर पढ़ाना शुरू किया.

वो रोबोटिक हथियारों के ख़तरों के बारे में चेतावनी देते हैं.

वो कहते हैं, "मैं हथियार के रूप में रोबोट के इस्तेमाल के ख़िलाफ़ हूं, मैं इस पर रोक लगाने के पक्ष में हूं. आप इसे काबू नहीं कर सकते और ये बेहद ख़तरनाक हो सकते हैं. कौन चाहेगा कि दुनिया में ऐसे हथियार मौजूद हों जो अपनी मर्ज़ी से किसी को मार सकते हों."

मिसाइलों के मामले में अब ऐसे हथियार बनने लगे हैं जो सामने से आ रहे ख़तरे को देख कर रास्ता बदल सकते हैं. हाल में रूस ने ऐसी मशीनगन बनाई है जो बिना इंसानी मदद के अपना टारगेट पहचान कर और उसे नष्ट कर सकती है.

लेकिन क्या नई पीढ़ी के इस तरह के रोबोटिक हथियारों में सही-ग़लत का फ़ैसला लेने का प्रोग्राम फिट किया जा सकता है?

आर्किन्स इसके पक्ष में हैं और मानते हैं कि रोबोट्स को मानवाधिकारों का सम्मान करना सिखाया जा सकता है.

वो कहते हैं, "हम मौजूदा नैतिक मूल्यों को देख सकते हैं और इन्हें रोबोट में प्रोग्राम कर सकते हैं, ताकि वो बेहतर फ़ैसले ले सकें. ठीक वैसे, जैसे किसी सैनिक को बंदूक देकर हम ये नहीं कहते कि किसे मारना है ये फ़ैसला वो खुद ले. हम उसे सही-ग़लत के बारे में सिखाते हैं और उम्मीद करते हैं कि वो इसी दायरे में काम करेगा. उसे बताया जाता है कि अलग-अलग परिस्थितियों में उसे किस आधार फ़ैसला लेना है."

तकनीकी स्तर पर ये बेहद मुश्किल है. आख़िर रोबोट कैसे समझेगा कि हाथ में चाकू लेकर खड़ा डॉक्टर व्यक्ति को बचा रहा है.

लेकिन आर्किन्स मानते हैं कि इन मुश्किल सवालों के बावजूद युद्ध में रोबोटिक हथियार बेहतर हैं क्योंकि वक्त पड़ने पर वो इंसानों से बेहतर फ़ैसले ले सकते हैं. रोबोट न तो किसी पर नाराज़ होते हैं, न कुंठा का शिकार होते हैं, उनमें जलन नहीं होती और वो बदला नहीं लेना चाहते. इसलिए रोबोट वो ग़लतियां नहीं करेंगे जो इंसान करते हैं.

लेकिन फिर, रोबोट प्यार और अपराध-बोध जैसी भावनाएं नहीं समझ सकते जो इंसान को ग़लतियां दोहराने से रोकती हैं.

रॉनल्ड आर्किन्स कहते हैं, "रोबोटिक हथियारों के इस्तेमाल से पहले इस बात पर विचार किया जाता है कि हमले में कितने आम नागरिक हताहत हो सकते हैं और कितनी संपत्ति को नुक़सान हो सकता है. ये बिल्कुल संभव है कि जितना अंदाज़ा हो, नुक़सान उससे अधिक हो. ऐसे में अपराध-बोध होगा तो सैनिक ग़लती नहीं दोहराएगा और हो सकता है कि वो फिर उस हथियार का इस्तेमाल न करे."

ये माना जा सकता है कि रोबोटिक हथियारों से लैस दो मुल्कों के बीच युद्ध आम नागरिकों के लिए घातक साबित हो सकता है. गणतांत्रिक मुल्कों के लिए इसके भयंकर राजनीतिक परिणाम हो सकते हैं.

वो कहते हैं, "मैं युद्ध नहीं चाहता. मैं नहीं चाहता कि ऐसे हथियारों का कभी इस्तेमाल हो. लेकिन अगर हम बेवकूफों की तरह एकदूसरे से लड़ना जारी रखेंगे तो मुझे लगता है कि आम नागरिकों को सुरक्षा के बेहतर रास्ते तलाशने चाहिए. हमें आम नागरिकों को बचाने की हरसंभव कोशिश करनी चाहिए."

आर्किन्स रोबोट के प्रोग्राम में अंतरराष्ट्रीय मानवाधिकारों के मूल्यों को भी जोड़ना चाहते हैं. लेकिन रोबोट को नैतिकता सिखाने का यही एकमात्र तरीका नहीं.

किसके और कौन-से नैतिक मूल्य

सुज़ैन और माइकल एंडरसन केयरबॉट यानी इंसानों की मदद के लिए बने रोबोट के कॉन्सेप्ट पर काम कर रहे हैं. सुज़ैन फ़िलोसॉफ़र हैं, उनके पति माइकल कंप्यूटर साइंटिस्ट हैं.

दोनों एक एथिकल रोबोट बना रहे हैं यानी ऐसा रोबोट जिसके प्रोग्राम में नैतिकता के मूल्य जोड़े गए हों.

माइकल समझाते हैं, "केयरबॉट एक खास तरह का रोबोट होता है जो बुज़ुर्गों की मदद कर सकता है. आप घर में हों या बाहर, ये बॉट आपको याद दिलाता है कि आपको कब दवा लेनी है, कब टीवी देखना है. ये वो सारे काम करता है जिसके लिए आपको लोगों की मदद चाहिए."

शोध के दौरान सुज़ैन और माइकल को एक वीडियो मिला जिसमें एक रोबोट एक बुज़ुर्ग महिला की मदद कर रही है.

इस वीडियो ने दोनों को कुछ हद तक डरा दिया.

सुज़ैन बताती हैं, "उस महिला के एक रिश्तेदार ने रोबोट को उनके घर पर देखा. कई बार उन्हें लगा कि महिला जो भी कर रही हैं वो कोई देख रहा है. ये एक तरह से उनकी निजता का ख़त्म होना था. हममें से अधिकांश लोगों को इस पर ऐतराज़ होगा क्योंकि ये एथिक्स का सवाल है."

माइकल कहते हैं कि ये एक बेहतरीन वीडियो था जो इस बात का उदाहरण था कि "एथिक्स के सवाल को इंजीनियरों पर छोड़ दिया जाए तो क्या हो सकता है."

रॉनल्ड आर्किन्स की तरह सुज़ैन और माइकल मानते हैं कि रोबोट्स के प्रोग्राम में एथिक्स जोड़ना संभव है.

वो कहते हैं कि मशीन लर्निंग के ज़रिए रोबोट के प्रोग्राम में नैतिक मूल्य जोड़े जा सकते हैं जिनका आधार दूसरों को खुशी देना और झगड़ों से बचना हो. इसके बाद रोबोट परिस्थिति के अनुसार सही फ़ैसले ले सकता है.

सुज़ैन कहती हैं, "कभी-कभी छोटे से छोटा लगने वाला फ़ैसला भी बेहद महत्वपूर्ण हो सकता है. बैटरी ख़त्म होने की स्थिति में खुद को चार्ज करना मामूली बात है, लेकिन हो सकता है कि रोबोट को इससे पहले मरीज़ को दवा देने का काम करना हो."

सुज़ैन और माइकल के अनुसार रोबोट्स के प्रोग्राम में नैतिकता के वही मूल्य जोड़े जाने चाहिए जिन्हें लेकर वैश्विक स्तर पर विशेषज्ञों की सहमति बन सके. लेकिन वक्त के साथ नैतिकता के मानदंड भी बदलते हैं, जैसे कुछ सौ साल पहले दास प्रथा थी जो अब ग़लत है.

दूसरी तरफ हम ये मानते हैं कि रोबोट इंसान से अधिक ताकतवर और काबिल होंगे. हो सकता है कि नैतिकता के पैमाने पर भी वो इंसानों से बेहतर हों.

सुज़ैन कहती हैं, "मुझे लगता है कि कहीं ऐसा न हो कि रोबोट्स हमें ये आइना दिखाएं कि हम कैसा व्यवहार करते हैं. सच कहा जाए तो दुनिया में काफी तबाही इंसान में नैतिकता की कमी के कारण हुई है और उसने दूसरों के लिए भी मुश्किलें पैदा की हैं."

लौटते हैं अपने सवाल पर- क्या रोबोट्स को ऐथिक्स सिखाया जा सकता है. ऐसा करने के अलग-अलग तरीके हो सकते हैं, लेकिन सबसे पहले इस बात पर सहमति बनानी होगी कि वो कौन-से एथिक्स हैं जो सिखाने हैं.

लेकिन फिर, विशेषज्ञों को ये भी चिंता है कहीं रोबोट इंसान की तरह न बन जाए.

रोबोट वही करेगा जो सीखेगा

जोआना ब्रायसन बर्लिन के हर्टी स्कूल ऑफ़ गवर्नेंस में एथिक्स एंड टेकनोलॉजी की प्रोफ़ेसर हैं. वो रोबोट्स के मानवीकरण को भयानक कदम मानती हैं.

वो कहती हैं कि रोबोट्स को सीखा नहीं सकते, क्योंकि वो छात्र नहीं होते. वो वही करते हैं जो प्रोग्राम में लिखा होता है और ये कभी-कभी ग़लत भी हो सकता है.

वो कहती हैं, "डेमॉन्स्ट्रेशन के लिए हम इसकी प्रोग्रामिंग कर सकते हैं लेकिन इसे सिखाना नहीं कह सकते क्योंकि सिखाने की प्रक्रिया में लोगों के बीच इंसानी रिश्ते बनते हैं."

जोआना उदाहरण देती हैं कि अगर रोबोट को लाखों पंक्तियां का एक डेटाबेस दे दिया जाए और उसे इंसानों की नकल करने को कहा जाए, तो हो सकता है कि वो काम के आधार पर महिला और पुरुष के बीच का फर्क न कर सके.

वो कहती हैं, "महिलाओं को घरेलू काम से जोड़ कर देखा जाता है. ऐसे में हो सकता है कि रोबोट किचन और साफ-सफाई के काम को महिला के नाम से जोड़े और पुरुषों के नाम के साथ वो बाहर के काम जोड़ दे. लेकिन इसे उसकी ग़लती कहना सही नहीं होगा क्योंकि ये उस सामाजिक व्यवस्था के कारण है जो इंसान की बनाई हुई है. रोबोट उसी को तो दोहराएगा."

यानी रोबोट इंसानों की बनाई सामाजिक व्यवस्था और पूर्वाग्रहों से परे नहीं होगा बल्कि उसका हिस्सा बन जाएगा.

आप कह सकते हैं- रोबोट जो सीखेगा वही दोहराएगा, या कहें रोबोट को इंसान जो सिखाएगा वो वही दोहराएगा.

मतलब ये कि रोबोट्स को एथिक्स सिखाने के लिए इंसान को खुद अपनी बनाई व्यवस्था से लड़ना होगा और सही मायनों में एक न्यायपूर्ण समाज बनाना होगा. रोबोट्स की ग़लतियों के लिए एक तरह से उसे बनाने वाला ज़िम्मेदार होगा.

जोआना कहती हैं, "कुछ लोग ये दलील दे सकते हैं कि उन्होंने रोबोट्स को अच्छे से प्रोग्राम किया है, मशीन लर्निंग और डीप लर्निंग का इस्तेमाल किया है और रोबोट की ग़लती के लिए वो ज़िम्मेदार नहीं. लेकिन ये भी सही है कि अगर आपका पालतू कुत्ता किसी पर हमला करे तो वजह कोई भी हो, ज़िम्मेदार आप ही होते हैं."

यानी आप ये नहीं कह सकते कि मुझे नहीं पता मेरे रोबोट ने ये क्यों किया. और आर्टिफ़िशियन इंटेलिजेंस के क्षेत्र में यही वो अहम मोड़ है जहां सरकारों को दखल देने की ज़रूरत है.

वो कहती हैं, "आप आर्किटेक्ट का उदाहरण देख सकते हैं. दशकों पहले से उनके लिए नियम बनाए जाते रहे हैं. लोग नहीं चाहते कि इमारतें टूटें इसलिए आर्किटेक्ट को साबित करना होता है कि उसकी इमारत हर मौसम में खड़ी रहेगी. और तो और उन्हें कई तरह की इजाज़त लेनी होती है. तकनीक के क्षेत्र में भी यही करने की ज़रूरत है."

आप मानें या न मानें आने वाले वक्त में रोबोट्स कई छोटे-बड़े और महत्वपूर्ण फ़ैसले लेंगे. हम उम्मीद कर सकते हैं कि रोबोट्स के लिए एथिक्स को लेकर वैश्विक स्तर पर सहमति बन पाए.

हमें ये भी सुनिश्चित करना होगा कि रोबोट्स इंसानों की बनाई व्यवस्था का हिस्सा न बनें और उनके फ़ैसले पूर्वाग्रहों पर आधारित न हों.

लेकिन ये भी हो सकता है कि इस मामले में रोबोट एक कदम आगे साबित हों और वो हम इंसानों को और बेहतर इंसान बनाएं.

(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर, इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)