चुनावों में आर्टिफ़िशियल इंटेलिजेंस, डीपफ़ेक और ग़लत जानकारियों का ख़तरा

इमेज स्रोत, Screengrab
- Author, मेरिल सेबेस्टियन
- पदनाम, बीबीसी न्यूज़ कोच्चि
पिछले साल नवंबर में मुरलीकृष्णन चिन्नादुरै ब्रिटेन में तमिल भाषा के एक कार्यक्रम का यू-ट्यूब पर लाइव प्रसारण देख रहे थे. मुरलीकृष्णन को लग रहा था कि इस लाइवस्ट्रीम में कुछ तो गड़बड़ी है.
उस कार्यक्रम में दुवारका नाम की एक महिला भाषण दे रही थी, जिसे तमिल उग्रवादी संगठन लिट्टे के प्रमुख वेलुपिल्लै प्रभाकरण की बेटी बताया गया था.
दिक़्क़त ये थी कि दुवारका की मौत एक दशक पहले ही हो चुकी थी. 2009 में श्रीलंका में चल रहे गृह युद्ध के दौरान दुवारका एक हवाई हमले में मारी गई थी.
हालांकि, उसके बाद से 23 बरस की दुवारका का शव कभी बरामद नहीं हुआ. और अब, यहां ब्रिटेन में वो मध्यम उम्र की एक महिला के तौर पर पूरी दुनिया के तमिलों से अपील कर रही थी कि वो अपनी सियासी लड़ाई को आगे बढ़ाएं.
मुरलीकृष्णन चिन्नादुरै, दक्षिण भारत के तमिलनाडु राज्य में रहने वाले एक फैक्ट चेकर हैं. उन्होंने वो वीडियो बड़ी बारीक़ी से देखा. उस वीडियो के अटक अटककर चलने से उन्होंने तुरंत भांप लिया कि दुवारका की जिस तस्वीर को असली बताया जा रहा था, वो असल में आर्टिफ़िशियल इंटेलिजेंस (एआई) की मदद से तैयार की गई है.

इस वीडियो के ज़रिए जो गड़बड़ी पैदा करने की कोशिश की जा रही थी, वो मुरलीकृष्णन को तुरंत समझ में आ गई हैं. उन्होंने बताया कि, "तमिलनाडु के लोग इस मसले को लेकर बेहद जज़्बाती हैं. और, चुनावों के बीच ये ग़लत जानकारी बड़ी तेज़ी से फैल सकती है."
आज जब भारत में चुनाव हो रहे हैं, तो आर्टिफ़िशियल इंटेलिजेंस की मदद से तैयार कंटेंट की भरमार की अनदेखी नहीं की जा सकती है. प्रचार के वीडियो, तमाम भारतीय भाषाओं में लोगों के लिए निजी ऑडियो संदेश और यहां तक कि उम्मीदवार की आवाज़ में मतदाताओं को की जाने वाली स्वचालित फोन काल तक इसमें शामिल हैं.
शाहिद शेख़ जैसे कंटेंट तैयार करने वालों के लिए एआई की मदद से ऐसी सामग्री तैयार करना मज़ेदार रहा, जिसमें वो राजनेताओं को ऐसे अवतार में दिखा रहे थे, जो इससे पहले कभी नहीं देखे गए: मसलन वर्ज़िश के कपड़े पहने हुए, संगीत सुनते हुए और नाचते गाते हुए.
लेकिन, जैसे जैसे आर्टिफ़िशियल इंटेलिजेंस के टूल और उन्नत होते जा रहे हैं, वैसे वैसे इन्हें लेकर जानकारों की चिंता बढ़ती जा रही है. ख़ास तौर से फ़ेक न्यूज़ को असली बताकर पेश करने के मामले में.
भारत के पूर्व मुख्य चुनाव आयुक्त, एस वाई क़ुरैशी कहते हैं कि, "अफ़वाहें तो हमेशा से चुनावी प्रक्रिया का हिस्सा रही हैं. लेकिन, सोशल मीडिया के इस दौर में अफ़वाहें जंगल की आग की तरह फैल सकती हैं."
वो कहते हैं कि, "सच तो ये है कि इनसे पूरे देश में आग भड़क उठने का डर है."
तकनीक से शब्दों और संदेशों की हेरा-फेरी

इमेज स्रोत, Sahixd
हाल में हुई तकनीकी तरक़्क़ी का फ़ायदा उठाने के मामले में भारत के सियासी दल कोई पहले नहीं हैं. सीमा के उस पार पाकिस्तान में इसी तकनीक ने जेल में बंद इमरान ख़ान को एक रैली संबोधित करने का मौक़ा दिया था.
और ख़ुद भारत में भी प्रधानमंत्री नरेंद्र मोदी, उभरती हुई तकनीकों का इस्तेमाल असरदार चुनाव अभियान चलाने के लिए पहले से करते आए हैं. वो लोगों को हिंदी मे संबोधित करते हैं, और इसके साथ साथ उनके भाषण को सरकार द्वारा निर्मित एआई के टूल भाषिणी की मदद से तमिल भाषा में अनुवाद करके सुनाया जा रहा होता है.
लेकिन, इन तकनीकों का इस्तेमाल शब्दों और संदेशों की हेरा-फेरी के लिए भी किया जा सकता है.
अभी पिछले महीने वायरल हुए दो वीडियो में बॉलीवुड के सितारों रणवीर सिंह और आमिर ख़ान को विपक्षी दल कांग्रेस का प्रचार करते हुए दिखाया गया था.
दोनों ही अभिनेताओं ने इन वीडियो को डीपफेक बताते हुए पुलिस में शिकायत दर्ज कराई कि इन्हें उनकी इजाज़त के बग़ैर बनाया गया है.
इसके बाद 29 अप्रैल को ख़ुद प्रधानमंत्री मोदी ने एआई की मदद से उनके अपने और बीजेपी के दूसरे नेताओं के भाषणों को तोड़-मरोड़कर पेश करने को लेकर चिंता जताई थी.
अगले ही दिन पुलिस ने दो लोगों को गिरफ़्तार किया था.
इनमें से एक कांग्रेस पार्टी का तो दूसरा आम आदमी पार्टी का कार्यकर्ता था. इन दोनों को गृह मंत्री अमित शाह के वीडियो को काट-छांटकर पेश करने के आरोप में गिरफ़्तार किया गया था.
विपक्षी दल, नरेंद्र मोदी की भारतीय जनता पार्टी पर भी इसी तरह के इल्ज़ाम लगाते आए हैं.
सियासत में प्रतिस्पर्धा

इमेज स्रोत, Sahixd
जानकारों के मुताबिक़, समस्या ये है कि इन गिरफ़्तारियों के बावजूद, इन नक़ली और तोड़-मरोड़कर तैयार किए जा रहे कंटेंट से निपटने की कोई व्यापक क़ानूनी व्यवस्था नहीं है.
डेटा और सुरक्षा के रिसर्चर श्रीनिवास कोडाली कहते हैं, "इसका मतलब ये है कि अगर आप कुछ ग़लत करते हुए पकड़े जाते हैं तो आपको बस हल्की फुल्की सज़ा देकर छोड़ दिया जाएगा."
बीबीसी को पता चला है कि राजनेताओं ने ऐसे कंटेंट तैयार करने वालों से अपने विरोधियों की पोर्नोग्राफिक तस्वीरें और मॉर्फ किए गए वीडियो तैयार करने के लिए भी कहा, ताकि उनकी छवि को नुक़सान पहुंचाया जा सके.
दिव्येंद्र सिंह जादौन ने बताया कि, "एक बार मुझसे कहा गया था कि एक असली वीडियो का डीपफेक वीडियो तैयार करूं, क्योंकि असली वीडियो जो बड़े पैमाने पर शेयर किया जा रहा था, उससे उसमें दिख रहे राजनेता की ख़राब छवि बन रही थी."
दिव्येंद्र बताते हैं कि, "इसीलिए उस नेता की टीम चाहती थी कि मैं उसका डीपफेक वीडियो तैयार करूं, जिसे वो असली बताकर प्रचारित कर सकें."
दिव्येंद्र सिंह जादौन दि इंडियन डीपफेकर (टीआईडी) के संस्थापक हैं, जो आर्टिफिशियल इंटेलिजेंस के मुफ़्त में उपलब्ध सॉफ्टवेयर का इस्तेमाल करके लोगों को राजनेताओं की प्रचार सामग्री तैयार करने में मदद करती है.
वो कहते हैं कि उनकी कंपनी अपने हर कंटेंट में डिसक्लेमर लगाने पर ज़ोर देती है, ताकि ये स्पष्ट रहे कि ये असली वीडियो नहीं है. लेकिन, इस पर क़ाबू पाना फिर भी दुश्वार है.
तेज़ी से फैलती ग़लत सूचना

इमेज स्रोत, Getty Images
शाहिद शेख़, पश्चिम बंगाल की एक मार्केटिंग एजेंसी के लिए काम करते हैं. उन्होंने देखा है कि उनके बनाए कंटेंट को बिना उनको क्रेडिट दिए ही राजनेता या फिर राजनीतिक दलों के सोशल मीडिया पेज पर शेयर किया जाता है.
शाहिद शेख़ कहते हैं कि, "एक राजनेता ने मेरी बनाई हुई नरेंद्र मोदी की तस्वीर को बिना किसी संदर्भ के इस्तेमाल किया और ये भी नहीं बताया कि ये तस्वीर आर्टिफ़िशियल इंटेलिजेंस की मदद से तैयार की गई है."
और, अब तो डीपफेक बनाना इतना आसान हो गया है कि इसे कोई भी तैयार कर सकता है.
दिव्येंद्र जादौन बताते हैं कि, "पहले जो काम करने में सात से आठ दिन लग जाते थे, अब वो कंटेंट तीन मिनट में तैयार हो जाता है. आपके पास बस एक कंप्यूटर होना चाहिए."
बीबीसी की टीम ने अपनी आंखों से देखा कि दो लोगों के बीच एक फ़र्ज़ी फोन कॉल कराना कितना आसान है. ये फ़ोन कॉल मेरे और पूर्व अमरीकी राष्ट्रपति के बीच थी.
इन जोखिमों के बावजूद, भारत ने शुरुआत में कहा था कि वो आर्टिफ़िशियल इंटेलिजेंस के लिए कोई क़ानून बनाने पर विचार नहीं कर रहा है. हालांकि, इस साल मार्च महीने में सरकार उस वक़्त अचानक हरकत में आ गई, जब 'क्या मोदी फासीवादी हैं?' सवाल पर गूगल के जेमिनी चैटबॉट के जवाब को लेकर विवाद खड़ा हुआ था.

इमेज स्रोत, Getty Images
भारत के सूचना और प्रौद्यौगिकी राज्यमंत्री राजीव चंद्रशेखर ने कहा कि इससे भारत के आईटी क़ानूनों का उल्लंघन हुआ है.
उसके बाद से भारत सरकार ने तकनीकी कंपनियों से कहा है कि वो जेनरेटिव एआई के 'कम परीक्षण किए गए' और 'भरोसा न करने लायक़' मॉडल या टूल जारी करने से पहले सरकार से इजाज़त लें.
सरकार ने इन कंपनियों को ऐसे टूल्स के उन जवाबों को लेकर भी चेतावनी जारी की 'जो चुनावी प्रक्रिया की अक्षुण्णता के लिए ख़तरा पैदा करते हों.'
लेकिन, इतने भर से काम नहीं चलने वाला: फैक्ट चेक करने वाले कहते हैं कि ऐसे कंटेंट का लगातार पर्दाफ़ाश करना बहुत बड़ी चुनौती है, ख़ास तौर से चुनाव के दौरान जब ग़लत सूचनाओं की बाढ़ आ जाती है.
तमिलनाडु में मीडिया की निगरानी करने वाला संगठन चलाने वाले मुरलीकृष्णन अन्नादुरै कहते हैं कि, "सूचना 100 किलोमीटर प्रति घंटे की रफ़्तार से चलती है. लेकिन, हम जिस बात को ग़लत ठहराते हैं, वो 20 किलोमीटर प्रति घंटे की धीमी गति से फैलती है."
श्रीनिवास कोडाली कहते हैं कि ये नक़ली कंटेंट तो मुख्यधारा के मीडिया तक में फैल रहे हैं. इसके बावजूद, "चुनाव आयोग आर्टिफ़िशियल इंटेलिजेंस को लेकर सार्वजनिक रूप से ख़ामोशी बनाए हुए है."
श्रीनिवास कहते हैं कि, "इनके लिए कोई नियम नहीं है. कोई वास्तविक नियम क़ायदे बनाने के बजाय उन्होंने ये काम तकनीकी उद्योग के भरोसे छोड़ दिया है."
जानकार कहते हैं कि इसका कोई ठोस समाधान नहीं है.
एस वाई क़ुरैशी कहते हैं कि, "लेकिन, अभी अगर फेक वीडियो फॉरवर्ड करने वालों के ऊपर कार्रवाई होती है, तो शायद दूसरों को अपुष्ट जानकारी साझा करने से डर लगेगा."
(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर, इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)



















