चुनावों में आर्टिफ़िशियल इंटेलिजेंस, डीपफ़ेक और ग़लत जानकारियों का ख़तरा

फैक्ट चेक करने वालों का कहना है दुवारका का डिजिटल स्वरूप यू-ट्यूब पर प्रसारण के लिए बनाया गया था)

इमेज स्रोत, Screengrab

इमेज कैप्शन, फैक्ट चेक करने वालों का कहना है दुवारका का डिजिटल स्वरूप यू-ट्यूब पर प्रसारण के लिए बनाया गया था.
    • Author, मेरिल सेबेस्टियन
    • पदनाम, बीबीसी न्यूज़ कोच्चि

पिछले साल नवंबर में मुरलीकृष्णन चिन्नादुरै ब्रिटेन में तमिल भाषा के एक कार्यक्रम का यू-ट्यूब पर लाइव प्रसारण देख रहे थे. मुरलीकृष्णन को लग रहा था कि इस लाइवस्ट्रीम में कुछ तो गड़बड़ी है.

उस कार्यक्रम में दुवारका नाम की एक महिला भाषण दे रही थी, जिसे तमिल उग्रवादी संगठन लिट्टे के प्रमुख वेलुपिल्लै प्रभाकरण की बेटी बताया गया था.

दिक़्क़त ये थी कि दुवारका की मौत एक दशक पहले ही हो चुकी थी. 2009 में श्रीलंका में चल रहे गृह युद्ध के दौरान दुवारका एक हवाई हमले में मारी गई थी.

हालांकि, उसके बाद से 23 बरस की दुवारका का शव कभी बरामद नहीं हुआ. और अब, यहां ब्रिटेन में वो मध्यम उम्र की एक महिला के तौर पर पूरी दुनिया के तमिलों से अपील कर रही थी कि वो अपनी सियासी लड़ाई को आगे बढ़ाएं.

मुरलीकृष्णन चिन्नादुरै, दक्षिण भारत के तमिलनाडु राज्य में रहने वाले एक फैक्ट चेकर हैं. उन्होंने वो वीडियो बड़ी बारीक़ी से देखा. उस वीडियो के अटक अटककर चलने से उन्होंने तुरंत भांप लिया कि दुवारका की जिस तस्वीर को असली बताया जा रहा था, वो असल में आर्टिफ़िशियल इंटेलिजेंस (एआई) की मदद से तैयार की गई है.

बीबीसी
वीडियो कैप्शन, आर्टिफिशियल इंटेलिजेंस के ज़रिए तैयार डीप फ़ेक वीडियो और ऑडियो के मामले बढ़े हैं.

इस वीडियो के ज़रिए जो गड़बड़ी पैदा करने की कोशिश की जा रही थी, वो मुरलीकृष्णन को तुरंत समझ में आ गई हैं. उन्होंने बताया कि, "तमिलनाडु के लोग इस मसले को लेकर बेहद जज़्बाती हैं. और, चुनावों के बीच ये ग़लत जानकारी बड़ी तेज़ी से फैल सकती है."

आज जब भारत में चुनाव हो रहे हैं, तो आर्टिफ़िशियल इंटेलिजेंस की मदद से तैयार कंटेंट की भरमार की अनदेखी नहीं की जा सकती है. प्रचार के वीडियो, तमाम भारतीय भाषाओं में लोगों के लिए निजी ऑडियो संदेश और यहां तक कि उम्मीदवार की आवाज़ में मतदाताओं को की जाने वाली स्वचालित फोन काल तक इसमें शामिल हैं.

शाहिद शेख़ जैसे कंटेंट तैयार करने वालों के लिए एआई की मदद से ऐसी सामग्री तैयार करना मज़ेदार रहा, जिसमें वो राजनेताओं को ऐसे अवतार में दिखा रहे थे, जो इससे पहले कभी नहीं देखे गए: मसलन वर्ज़िश के कपड़े पहने हुए, संगीत सुनते हुए और नाचते गाते हुए.

लेकिन, जैसे जैसे आर्टिफ़िशियल इंटेलिजेंस के टूल और उन्नत होते जा रहे हैं, वैसे वैसे इन्हें लेकर जानकारों की चिंता बढ़ती जा रही है. ख़ास तौर से फ़ेक न्यूज़ को असली बताकर पेश करने के मामले में.

भारत के पूर्व मुख्य चुनाव आयुक्त, एस वाई क़ुरैशी कहते हैं कि, "अफ़वाहें तो हमेशा से चुनावी प्रक्रिया का हिस्सा रही हैं. लेकिन, सोशल मीडिया के इस दौर में अफ़वाहें जंगल की आग की तरह फैल सकती हैं."

वो कहते हैं कि, "सच तो ये है कि इनसे पूरे देश में आग भड़क उठने का डर है."

तकनीक से शब्दों और संदेशों की हेरा-फेरी

राहुल गांधी, अरविंद केजरीवाल और ममता बनर्जी की ये तस्वीरें शाहिद शेख़ ने इंस्टाग्राम पर एआई के टूल की मदद से तैयार की हैं)

इमेज स्रोत, Sahixd

इमेज कैप्शन, राहुल गांधी, अरविंद केजरीवाल और ममता बनर्जी की ये तस्वीरें शाहिद शेख़ ने इंस्टाग्राम पर एआई के टूल की मदद से तैयार की हैं
छोड़कर पॉडकास्ट आगे बढ़ें
कहानी ज़िंदगी की

मशहूर हस्तियों की कहानी पूरी तसल्ली और इत्मीनान से इरफ़ान के साथ.

एपिसोड

समाप्त

हाल में हुई तकनीकी तरक़्क़ी का फ़ायदा उठाने के मामले में भारत के सियासी दल कोई पहले नहीं हैं. सीमा के उस पार पाकिस्तान में इसी तकनीक ने जेल में बंद इमरान ख़ान को एक रैली संबोधित करने का मौक़ा दिया था.

और ख़ुद भारत में भी प्रधानमंत्री नरेंद्र मोदी, उभरती हुई तकनीकों का इस्तेमाल असरदार चुनाव अभियान चलाने के लिए पहले से करते आए हैं. वो लोगों को हिंदी मे संबोधित करते हैं, और इसके साथ साथ उनके भाषण को सरकार द्वारा निर्मित एआई के टूल भाषिणी की मदद से तमिल भाषा में अनुवाद करके सुनाया जा रहा होता है.

लेकिन, इन तकनीकों का इस्तेमाल शब्दों और संदेशों की हेरा-फेरी के लिए भी किया जा सकता है.

अभी पिछले महीने वायरल हुए दो वीडियो में बॉलीवुड के सितारों रणवीर सिंह और आमिर ख़ान को विपक्षी दल कांग्रेस का प्रचार करते हुए दिखाया गया था.

दोनों ही अभिनेताओं ने इन वीडियो को डीपफेक बताते हुए पुलिस में शिकायत दर्ज कराई कि इन्हें उनकी इजाज़त के बग़ैर बनाया गया है.

इसके बाद 29 अप्रैल को ख़ुद प्रधानमंत्री मोदी ने एआई की मदद से उनके अपने और बीजेपी के दूसरे नेताओं के भाषणों को तोड़-मरोड़कर पेश करने को लेकर चिंता जताई थी.

अगले ही दिन पुलिस ने दो लोगों को गिरफ़्तार किया था.

इनमें से एक कांग्रेस पार्टी का तो दूसरा आम आदमी पार्टी का कार्यकर्ता था. इन दोनों को गृह मंत्री अमित शाह के वीडियो को काट-छांटकर पेश करने के आरोप में गिरफ़्तार किया गया था.

विपक्षी दल, नरेंद्र मोदी की भारतीय जनता पार्टी पर भी इसी तरह के इल्ज़ाम लगाते आए हैं.

सियासत में प्रतिस्पर्धा

कंटेंट क्रिएटर शाहिद के इंस्टाग्राम पेज पर राहुल गांधी और नरेंद्र मोदी की एआई तस्वीरें

इमेज स्रोत, Sahixd

इमेज कैप्शन, कंटेंट क्रिएटर शाहिद के इंस्टाग्राम पेज पर राहुल गांधी और नरेंद्र मोदी की एआई तस्वीरें

जानकारों के मुताबिक़, समस्या ये है कि इन गिरफ़्तारियों के बावजूद, इन नक़ली और तोड़-मरोड़कर तैयार किए जा रहे कंटेंट से निपटने की कोई व्यापक क़ानूनी व्यवस्था नहीं है.

डेटा और सुरक्षा के रिसर्चर श्रीनिवास कोडाली कहते हैं, "इसका मतलब ये है कि अगर आप कुछ ग़लत करते हुए पकड़े जाते हैं तो आपको बस हल्की फुल्की सज़ा देकर छोड़ दिया जाएगा."

बीबीसी को पता चला है कि राजनेताओं ने ऐसे कंटेंट तैयार करने वालों से अपने विरोधियों की पोर्नोग्राफिक तस्वीरें और मॉर्फ किए गए वीडियो तैयार करने के लिए भी कहा, ताकि उनकी छवि को नुक़सान पहुंचाया जा सके.

दिव्येंद्र सिंह जादौन ने बताया कि, "एक बार मुझसे कहा गया था कि एक असली वीडियो का डीपफेक वीडियो तैयार करूं, क्योंकि असली वीडियो जो बड़े पैमाने पर शेयर किया जा रहा था, उससे उसमें दिख रहे राजनेता की ख़राब छवि बन रही थी."

दिव्येंद्र बताते हैं कि, "इसीलिए उस नेता की टीम चाहती थी कि मैं उसका डीपफेक वीडियो तैयार करूं, जिसे वो असली बताकर प्रचारित कर सकें."

दिव्येंद्र सिंह जादौन दि इंडियन डीपफेकर (टीआईडी) के संस्थापक हैं, जो आर्टिफिशियल इंटेलिजेंस के मुफ़्त में उपलब्ध सॉफ्टवेयर का इस्तेमाल करके लोगों को राजनेताओं की प्रचार सामग्री तैयार करने में मदद करती है.

वो कहते हैं कि उनकी कंपनी अपने हर कंटेंट में डिसक्लेमर लगाने पर ज़ोर देती है, ताकि ये स्पष्ट रहे कि ये असली वीडियो नहीं है. लेकिन, इस पर क़ाबू पाना फिर भी दुश्वार है.

तेज़ी से फैलती ग़लत सूचना

पाकिस्तान में जेल में बंद इमरान ख़ान ने एआई की मदद से एक रैली को संबोधित किया था

इमेज स्रोत, Getty Images

इमेज कैप्शन, पाकिस्तान में जेल में बंद इमरान ख़ान ने एआई की मदद से एक रैली को संबोधित किया था

शाहिद शेख़, पश्चिम बंगाल की एक मार्केटिंग एजेंसी के लिए काम करते हैं. उन्होंने देखा है कि उनके बनाए कंटेंट को बिना उनको क्रेडिट दिए ही राजनेता या फिर राजनीतिक दलों के सोशल मीडिया पेज पर शेयर किया जाता है.

शाहिद शेख़ कहते हैं कि, "एक राजनेता ने मेरी बनाई हुई नरेंद्र मोदी की तस्वीर को बिना किसी संदर्भ के इस्तेमाल किया और ये भी नहीं बताया कि ये तस्वीर आर्टिफ़िशियल इंटेलिजेंस की मदद से तैयार की गई है."

और, अब तो डीपफेक बनाना इतना आसान हो गया है कि इसे कोई भी तैयार कर सकता है.

दिव्येंद्र जादौन बताते हैं कि, "पहले जो काम करने में सात से आठ दिन लग जाते थे, अब वो कंटेंट तीन मिनट में तैयार हो जाता है. आपके पास बस एक कंप्यूटर होना चाहिए."

बीबीसी की टीम ने अपनी आंखों से देखा कि दो लोगों के बीच एक फ़र्ज़ी फोन कॉल कराना कितना आसान है. ये फ़ोन कॉल मेरे और पूर्व अमरीकी राष्ट्रपति के बीच थी.

इन जोखिमों के बावजूद, भारत ने शुरुआत में कहा था कि वो आर्टिफ़िशियल इंटेलिजेंस के लिए कोई क़ानून बनाने पर विचार नहीं कर रहा है. हालांकि, इस साल मार्च महीने में सरकार उस वक़्त अचानक हरकत में आ गई, जब 'क्या मोदी फासीवादी हैं?' सवाल पर गूगल के जेमिनी चैटबॉट के जवाब को लेकर विवाद खड़ा हुआ था.

सांकेतिक तस्वीर

इमेज स्रोत, Getty Images

भारत के सूचना और प्रौद्यौगिकी राज्यमंत्री राजीव चंद्रशेखर ने कहा कि इससे भारत के आईटी क़ानूनों का उल्लंघन हुआ है.

उसके बाद से भारत सरकार ने तकनीकी कंपनियों से कहा है कि वो जेनरेटिव एआई के 'कम परीक्षण किए गए' और 'भरोसा न करने लायक़' मॉडल या टूल जारी करने से पहले सरकार से इजाज़त लें.

सरकार ने इन कंपनियों को ऐसे टूल्स के उन जवाबों को लेकर भी चेतावनी जारी की 'जो चुनावी प्रक्रिया की अक्षुण्णता के लिए ख़तरा पैदा करते हों.'

लेकिन, इतने भर से काम नहीं चलने वाला: फैक्ट चेक करने वाले कहते हैं कि ऐसे कंटेंट का लगातार पर्दाफ़ाश करना बहुत बड़ी चुनौती है, ख़ास तौर से चुनाव के दौरान जब ग़लत सूचनाओं की बाढ़ आ जाती है.

तमिलनाडु में मीडिया की निगरानी करने वाला संगठन चलाने वाले मुरलीकृष्णन अन्नादुरै कहते हैं कि, "सूचना 100 किलोमीटर प्रति घंटे की रफ़्तार से चलती है. लेकिन, हम जिस बात को ग़लत ठहराते हैं, वो 20 किलोमीटर प्रति घंटे की धीमी गति से फैलती है."

श्रीनिवास कोडाली कहते हैं कि ये नक़ली कंटेंट तो मुख्यधारा के मीडिया तक में फैल रहे हैं. इसके बावजूद, "चुनाव आयोग आर्टिफ़िशियल इंटेलिजेंस को लेकर सार्वजनिक रूप से ख़ामोशी बनाए हुए है."

श्रीनिवास कहते हैं कि, "इनके लिए कोई नियम नहीं है. कोई वास्तविक नियम क़ायदे बनाने के बजाय उन्होंने ये काम तकनीकी उद्योग के भरोसे छोड़ दिया है."

जानकार कहते हैं कि इसका कोई ठोस समाधान नहीं है.

एस वाई क़ुरैशी कहते हैं कि, "लेकिन, अभी अगर फेक वीडियो फॉरवर्ड करने वालों के ऊपर कार्रवाई होती है, तो शायद दूसरों को अपुष्ट जानकारी साझा करने से डर लगेगा."

(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर, इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)