AI, डीपफेक आणि खोटी माहिती, निवडणुकांत किती धोकादायक ठरू शकते तंत्रज्ञान? वाचा

राहुल गांधी आणि नरेंद्र मोदी यांचे एआय फोटो.

फोटो स्रोत, SAHIXD

फोटो कॅप्शन, कंटेंट क्रिएटर शाहिद यांच्या इन्स्टाग्राम पेजवरील राहुल गांधी आणि नरेंद्र मोदी यांचे एआय फोटो.
    • Author, मेरिल सेबेस्टियन
    • Role, बीबीसी तमिळ

गेल्या काही वर्षात तंत्रज्ञान झपाट्यानं विकसित झालं. परिणामी सर्वसामान्यांच्या दैनंदिन जीवनापासून अगदी सरकारी यंत्रणेवरही त्याचा परिणाम झाला आहे. विशेषतः आर्टिफिशियल इंटेलिजन्स (AI) तंत्रज्ञानाची खूप चर्चा आहे. आत निवडणूक काळात याचा वापर करून खोटी माहितीही पसरवण्यात येत असल्यानं, चिंता व्यक्त केली जात आहे.

गेल्या वर्षी नोव्हेंबर महिन्यात मुरलीकृष्णन चिन्नादुरई युट्यूबवर एक तमिळ कार्यक्रम लाईव्ह पाहत होते. पण मुरलीकृष्णन यांना त्या प्रसारणात काहीतरी घोळ वाटला.

त्यात दुवारका नावाची एक महिला बोलत होती. ती तमिळ अतिरेकी संघटना एलटीटीईचे प्रमुख वेलुपिल्लई प्रभाकरनची कन्या असल्याचं सांगण्यात आलं होतं.

पण, महत्त्वाचं म्हणजे प्रत्यक्षात दशकभरापूर्वीच दुवारकाचा मृत्यू झाला आहे. 2009 मध्ये श्रीलंका सरकार आणि एलटीटीई यांच्यातील गृहयुद्धात एका हवाई हल्ल्यात दुवारका मारल्या गेल्या.

प्रतिकात्मक छायाचित्र

फोटो स्रोत, SCREENGRAB

फोटो कॅप्शन, दुवारकाची ही डिजिटल इमेज यूट्यूबवर प्रसारणासाठी तयार केली होती, असं फॅक्ट चेक करणाऱ्यांचं मत आहे.

दुवारकाचा मृतदेह आजवर मिळालेला नाही. पण आता अचानक इंग्लंडमधून एक मध्यमवयीन महिलेच्या रुपात त्या जगभरातील तमिळ लोकांना त्यांनी राजकीय लढाई सुरू ठेवावी, अशी विनंती करताना दिसल्या.

मुरली कृष्णन चिन्नादुरई तमिळनाडूत राहणारे एक फॅक्ट चेकर आहेत.

त्यांनी तो व्हीडिओ अत्यंत बारकाईनं पाहिला. व्हीडिओ मध्ये-मध्ये अडकत होता. त्यावरून दुवारका प्रत्यक्षात बोलत असल्याचं दाखवलं जात असलं, तरी प्रत्यक्षात तो व्हीडिओ आर्टिफिशियल इंटेलिजन्सच्या (एआय) मदतीनं तयार करण्यात आला असल्याचं त्यांनी लगेचच ओळखलं.

या व्हीडिओच्या माध्यमातून चिथावणी देण्याचा प्रयत्न केला जात होता. मुरली कृष्णन यांच्या ते तत्काळ लक्षात आलं.

"तामिळनाडूतील लोक या मुद्द्याबाबत अत्यंत संवेदनशील आहेत. निवडणुकीच्या काळात ही चुकीची माहिती खूप वेगानं पसरू शकते," असं ते म्हणाले.

YouTube पोस्टवरून पुढे जा
परवानगी (सोशल मीडिया साईट) मजकूर?

या लेखात सोशल मीडियावरील वेबसाईट्सवरचा मजकुराचा समावेश आहे. कुठलाही मजकूर अपलोड करण्यापूर्वी आम्ही तुमची परवानगी विचारतो. कारण संबंधित वेबसाईट कुकीज तसंच अन्य तंत्रज्ञान वापरतं. तुम्ही स्वीकारण्यापूर्वी सोशल मीडिया वेबसाईट्सची कुकीज तसंच गोपनीयतेसंदर्भातील धोरण वाचू शकता. हा मजकूर पाहण्यासाठी 'स्वीकारा आणि पुढे सुरू ठेवा'.

सावधान: अन्य वेबसाईट्सवरील मजकुरासाठी बीबीसी जबाबदार नाही. YouTube मजुकरात जाहिरातींचा समावेश असू शकतो.

YouTube पोस्ट समाप्त

Skip podcast promotion and continue reading
बीबीसी न्यूज मराठी आता व्हॉट्सॲपवर

तुमच्या कामाच्या गोष्टी आणि बातम्या आता थेट तुमच्या फोनवर

फॉलो करा

End of podcast promotion

सध्या भारतात निवडणुका सुरू आहेत. त्या पार्श्वभूमीवर AI च्या मदतीनं तयार करण्यात आलेल्या प्रचंड कंटेंटकडं दुर्लक्ष केलं जाऊ शकत नाही. प्रचाराचे व्हीडिओ, सर्व भारतीय भाषांमध्ये लोकांसाठी वैयक्तिक स्वरुपाचे ऑडिओ संदेश आणि इतकंच काय उमेदवारांच्या आवाजामध्ये मतदारांना केला जाणारा ऑटोमॅटिक फोन कॉल सर्वाचा यात समावेश आहे.

शाहिद शेख हे आर्टिफिशियल इंटेलिजन्सच्या मदतीनं अशा कंटेंट निर्मितीचं काम करतात. त्यांनी याचा अनुभव गंमतीशीर होता, असं सांगितलं. राजकीय नेते आधी कधीही दिसले नव्हते अशा रुपात त्यांना दाखवलं जात होतं. उदाहरण द्यायचं झाल्यास व्यायाम करतानाचे कपडे परिधान केलेले, संगीत ऐकत असलेले आणि नाचणारे-गाणी म्हणणारे राजकारणी, अशा प्रकारे.

पण, आर्टिफिशियल इंटेलिजन्सचं तंत्रज्ञान जसंजसं विकसित होत जात आहे, तसतशी त्याद्वारे दिल्या जाणाऱ्या चुकीच्या माहितीसंदर्भातील चिंता वाढत चालली आहे. विशेषतः फेक न्यूज किंवा खोट्या बातम्यांना त्या खऱ्या म्हणून सादर करण्याच्या प्रकारांनी चिंता अधिक वाढवली आहे.

भारताचे माजी मुख्य निवडणूक आयुक्त, एस वाय कुरेशी म्हणतात की, "निवडणुकांमध्ये अफवांचा वापर नेहमीच झाला आहे. पण, सोशल मीडियाच्या या काळात अफवा जंगलात वणवा पसरावा तशा पसरतात."

"खरंतरं अफवांमुळं संपूर्ण देशात आगीचा भडका उठण्याची भीती आहे," असंही ते म्हणतात.

शब्द आणि संदेशांची हेरा-फेरी

अलिकडच्या काळात तंत्रज्ञानानं खूप प्रगती केली आहे. भारतात राजकीय पक्षांनीच पहिल्यांदा त्याचा वापर केला असं नाही. सीमेपलिकडे असलेल्या पाकिस्तानात या तुरुंगात असणाऱ्या इम्रान खान यांनी या तंत्रज्ञानाचा वापर करून एका प्रचार सभेत भाषण केलं होतं.

भारतातदेखील प्रभावीपणे निवडणूक प्रचार करण्यासाठी स्वत: पंतप्रधान नंरेद्र मोदी नवनवीन तंत्रज्ञानाचा वापर करत आले आहेत. हिंदीमध्ये भाषण करून सरकारद्वारे तयार करण्यात आलेल्या भाषिणी या AI टूलचा वापर करून ते तमिळमध्ये अनुवाद करून ते ऐकवतात.

पण, शब्द किंवा संदेशांमध्ये फेरबदल करण्यासाठीही याचा गैरवापर होण्याची शक्यता आहे.

SAHIXD

फोटो स्रोत, SAHIXD

बॉलीवूड स्टार रणवीर सिंह आणि आमिर खान यांचे दोन व्हिडिओ गेल्या महिन्यात व्हायरल झाले होते. त्यात हे दोघं कॉंग्रेसचा प्रचार करत असल्याचं दाखवलं होतं.

पण हे व्हिडिओ डीप फेक असल्याचं दोघांनीही स्पष्ट केलं होतं. त्यांच्या परवानगीशिवाय हे व्हिडिओ बनवण्यात आल्याची तक्रार त्यांनी पोलिसांकडे दाखल केली आहे.

नंतर 29 एप्रिलला स्वत: पंतप्रधान नरेंद्र मोदी यांनी AI च्या मदतीनं त्यांच्या आणि भाजपाच्या इतर नेत्यांच्या भाषणांमध्ये फेरफार करून सादर केल्याबाबत चिंता व्यक्त केली होती.

दुसऱ्याच दिवशी पोलिसांनी दोघांना अटक केली.

त्यात एक कॉंग्रेस पक्षाचा तर दुसरा आम आदमी पार्टीचा कार्यकर्ता होता. गृहमंत्री अमित शाह यांचा व्हिडिओ चुकीच्या पद्धतीनं संपादित करून सादर करण्याच्या आरोपाखाली या दोघांना अटक झाली होती.

नरेंद्र मोदी यांच्या भारतीय जनता पार्टीवरही विरोधक असे आरोप करत आले आहेत.

राजकारणातील स्पर्धा

पण अटकेची कारवाई झाली असली तर अशाप्रकारच्या कंटेंटला आळा घालण्यासाठी व्यापक कायदेशीर व्यवस्था नाही, ही महत्त्वाची अडचण असल्याचं जाणकार म्हणतात.

माहिती आणि सुरक्षेसंदर्भातील तज्ज्ञ श्रीनिवास कोडाली यांच्या मते, "याचा अर्थ असाच होतो की, कोणतीही चुकीची गोष्ट केल्याबद्दल अटक झाली तरी छोटीशी शिक्षा देऊन तुम्हाला सोडलं जाईल."

बीबीसीला मिळालेल्या माहितीनुसार, काही राजकारणीही अशा प्रकारचा कंटेंट तयार करणाऱ्यांकडून विरोधकांचे पॉर्नोग्राफिक फोटो किंवा मॉर्फ व्हिडिओ तयार करण्यास सांगतात. विरोधकांची प्रतिमा मलीन करण्याचा हेतू त्यामागे असतो.

दिव्येंद्र सिंह जादौन यांनी सांगितलं की "एकदा एका खऱ्या व्हिडिओवरून मला डीप फेक व्हिडिओ बनवण्यास सांगितलं होतं. कारण तेव्हा खरा व्हिडिओ खूप शेअर होत होता. त्यातील नेत्याची खराब प्रतिमा त्यातून समोर येत होती."

दिव्येंद्र सिंह यांच्या मते, "त्यामुळं मी त्यांचा डीपफेक व्हिडिओ तयार करावा आणि तो खरा असल्याचं सांगून ते शेअर करतील, अशी त्या नेत्याची इच्छा होती."

दिव्येंद्र सिंह इंडियन डीपफेकर (टीआयडी) चे संस्थापक आहेत. ही संस्था मोफत उपलब्ध असलेल्या आर्टिफिशियल इंटेलिजन्स सॉफ्टवेअरचा वापर करून राजकारण्यांचं प्रचार साहित्य तयार करण्यास मदत करते.

ते म्हणाले की, त्यांची कंपनी प्रत्येक कंटेंटमध्ये डिसक्लेमर किंवा सूचना देण्यावर भर देते. म्हणजे व्हिडिओ खरा नाही, हे स्पष्ट होऊ शकतं. पण अजूनही यावर नियंत्रण मिळवणं खूप कठिण आहे.

वेगाने पसरणाऱ्या अफवा

शाहिद शेख, पश्चिम बंगालच्या एका मार्केटिंग एजन्सीसाठी काम करतात. त्यांनी तयार केलेल्या कंटेंटसाठी श्रेय न देता राजकीय नेते किंवा पक्षांच्या सोशल मीडिया पेजवर तो शेअर केला जतो, असं ते सांगतात.

"एका राजकीय नेत्यानं मी तयार केलेल्या नरेंद्र मोदी यांच्या फोटोचा कोणताही संदर्भ किंवा सूचना न देता वापर केला. तसंच तो फोटो AI चा वापर करून तयार केल्याचं स्पष्टीकरणही दिलं नाही," असं ते म्हणाले.

सध्या तर डीपफेक तयार करणं एवढं सोपं झालं आहे की ते कोणीही ते करू शकतं.

दिव्येंद्र जादौन म्हणाले की, "आधी जे काम करण्यासाठी सात ते आठ दिवस लागायचे. तोच कंटेंट आता तीन मिनिटात तयार होतो. फक्त एक संगणक असायला हवा."

दोन व्यक्तींमध्ये खोटा फोन कॉल घडवणं किती सोपं आहे हे बीबीसीच्या टीमनं स्वत:च्या डोळ्यांनी पाहिलं. अमेरिकेच्या माजी राष्ट्राध्यक्षांबरोबर संवादाचा हा कॉल होता.

एवढे धोके असले तरी, AI संदर्भात कोणताही कायदा बनवण्याबाबत विचार नसल्याचं, भारतानं सुरुवातीलाच म्हटलं होतं. पण नुकतचं मार्च महिन्यात, 'मोदी फॅसिस्ट आहेत का?' या प्रश्नावर गुगलच्या जेमिनी चॅटबॉटवर मिळालेल्या उत्तरामुळं वाद निर्माण झाल्यानंतर सरकार अचानक सक्रिय झालं.

संग्रहित छायाचित्र

फोटो स्रोत, GETTY IMAGES

फोटो कॅप्शन, पाकिस्तानच्या तुरुंगात कैदेत असलेल्या इम्रान खान यांनी एआयच्या मदतीने एका रॅलीला संबोधित केलं होतं.

भारताचे माहिती आणि तंत्रज्ञान राज्यमंत्री राजीव चंद्रशेखर यांनी, यामुळे भारताच्या आयटी कायद्यांचं उल्लंघन झाल्याचं सांगितलं.

त्यानंतर भारत सरकारनं तंत्रज्ञान कंपन्यांना जनरेटिव्ह आर्टिफिशियल इंटेलिजन्सच्या कमी चाचण्या घेतलेल्या आणि विश्वास ठेवण्यायोग्य नसलेलं मॉडेल किंवा टूल जारी करण्यापूर्वी सरकारची परवानगी घ्यावी, असं सांगितलं.

अशा टूल्सच्या 'निवडणूक प्रक्रियेच्या विश्वासार्हतेला धोका' निर्माण करणाऱ्या उत्तरांबाबतही इशारा देण्यात आला.

प्रतिकात्मक छायाचित्र

फोटो स्रोत, GETTY IMAGES

पण, एवढंच पुरेसं नाही. फॅक्ट चेक करणाऱ्यांच्या मते, अशा कंटेंटचं खरं रुप सातत्यानं समोर आणणं मोठं आव्हान आहे. विशेषतः निवडणुकीच्या काळात खोट्या माहितीचा पूर येतो तेव्हा ते अधिक कठिण असतं.

तमिळनाडूत प्रसारमाध्यमांवर देखरेख करणारी संस्था चालवणारे मुरलीकृष्णन अन्नादुरई यांच्या मते, "माहिती ताशी 100 किमी वेगानं पुढं जाते. पण, आम्ही सत्य समोर आणतो ती माहिती ताशी 20 किमी अशा वेगानं पसरते."

श्रीनिवास कोडोली यांनी तर मुख्य प्रवाहातील प्रसारमाध्यमांमध्येही ही खोटी माहिती पसरते असं सांगितलं. तरीही, "निवडणूक आयोगानं AI बाबत मौन धारण केल्याचं सांगतात."

"त्यांच्यासाठी काहीही नियम नाही. नियम, कायदे बनवण्याऐवजी त्यांनी हे काम तंत्रज्ञान उद्योगावर सोडून दिलं आहे," असं श्रीनिवास म्हणाले.

जाणकारांच्या मते, या समस्येवर निश्चित असं उत्तर नाही.

"पण, अजूनही बनावट किंवा खोटा व्हीडिओ फॉरवर्ड करणाऱ्यांवर कारवाई झाली तर कदाचित इतरांकडून अशा प्रकारची माहिती शेअर करण्यास आळा बसेल," असं एस. वाय. कुरेशी म्हणाले.