'दारू पिणारा वाघ ते झेप घेणारे बिबटे' : AI ने तयार केलेले 'हे' व्हीडिओ नेमके ओळखायचे कसे?

    • Author, अमृता दुर्वे
    • Role, बीबीसी मराठी प्रतिनिधी

गेल्या काही दिवसांत तुम्ही झोपलेल्या माणसाला उचलून नेणाऱ्या वाघाचा वा लखनौमध्ये आलेल्या बिबट्याचा, पुण्यात आलेल्या बिबट्यांचे व्हीडिओ पाहिले आहेत का?

तुमच्या फॉरवर्ड्स किंवा सोशल मीडिया फीडवर आलेले ही व्हीडिओ खोटे आहेत.

आपलं सोशल मीडिया फीड एआयने ताब्यात घेतलंय. अल्गोरिदम आणि त्यात आपल्याला दिसणारा कंन्टेटपण.

आता आपल्याला दिसत असलेले बिबट्या, वाघ, अस्वलं, कुत्रे यांचे अनेक व्हीडिओज हे एआयच्या मदतीने तयार करण्यात आलेले आहेत.

या व्हीडिओंना फसू नये म्हणून काय करायचं?

गेल्या 6 महिन्यांत एआय व्हीडिओ जनरेटर्स म्हणजे अशी अ‍ॅप्स ज्यांच्या मदतीने एआय व्हीडिओ तयार करता येतात, त्यांमध्ये प्रचंड सुधारणा झाली आहे.

सोरासारखी अनेक अ‍ॅप्स लोकांना उपलब्ध झालेली आहेत. आणि परिणाम म्हणून एआयच्या मदतीने निर्माण करण्यात आलेल्या कंटेटचं प्रमाण वाढलंय.

अनेक व्हीडिओ असे आहेत, जे अगदी खरेखुरे वाटतात आणि असं खऱ्या वाटणाऱ्या व्हीडिओंचं प्रमाण यापुढे वाढतच जाणार आहे.

कारण AI स्वतःच्या चुकांमधून शिकत जातं आणि शिवाय या AI इंजिन्सना प्रचंड डेटा पुरवून शिकवलंही जातं. त्यामुळे त्यात यापुढे अजून प्रचंड झपाट्याने सुधारणा होतील.

पण मग AIचे व्हीडिओ ओळखण्यासाठी काय करायचं? सध्या या काही गोष्टी लक्षात ठेवता येतील.

व्हीडिओ क्वालिटी

वाईट पिक्चर क्वालिटी, ब्लर असणारा व्हीडिओ हे कदाचित AI व्हीडिओ असल्याचं लक्षण असू शकतं.

सध्याचा कोणताही बेसिक फोन घेतला तरी त्यातला कॅमेरा 4के मध्ये व्हीडिओ शूट करतो. अगदी रात्रीचे व्हीडिओही स्पष्ट रेकॉर्ड होतात.

मग हा व्हीडिओ असा का? हा प्रश्न पडायला हवा.

सीसीटीव्ही फुटेज असल्याचा बनाव

या पिक्चर क्वालिटीची झाकपाक करण्यासाठी मग काय केलं जातं माहिती आहे का, तर हा एआय व्हीडिओ सीसीटीव्ही फुटेज असल्याचं भासवलं जातं.

व्हायरल झालेल्या कित्येक व्हीडिओंपैकी अनेक ही सीसीटीव्ही फुटेजच्या स्वरूपात आहेत. अनेकदा यातली तारीख, वेळ या जागी कोणतेही आकडे लिहीलेले असतात.

अशा व्हीडिओंची ऑडिओ क्वालिटीही चांगली नसते.

त्यामुळे वाईट पिक्चर आणि ऑडिओ क्वालिटी आणि सीसीटीव्ही फुटेज हे हा व्हीडिओ बनावट असल्याचं लक्षण आहे.

अत्यंत चकचकीत रंग आणि रूप

याच्या बरोबर उलट चित्रं असणंही हा व्हीडिओ खोटा असल्याचं चिन्ह असू शकतात. म्हणजे व्हीडिओमधल्या लोकांची त्वचा अगदी तुकतुकीत, चकचकीत असणं, नाक-डोळे आखीवरेखीव, केस किंवा कपडे वेगळ्याच प्रकारे हलणं.

व्हीडिओतल्या व्यक्तीच्या चेहऱ्यावरचे भाव, डोळ्यांच्या हालचाली पहा. त्या अनैसर्गिक वाटतात.

एआयला बऱ्याचदा हे बारकावे जमत नाहीत. आतापर्यंत एआयला हात, बोटं करणंही नीट जमत नव्हतं. काही Apps मध्ये हा घोळ अजूनही आहे.

एक गोष्ट करून पहा जसे की, एआयला सांगा की मला डाव्या हाताने लिहिणाऱ्या व्यक्तीचा फोटो दे. त्याफोटोत ज्या प्रकारे पेन धरलेलं असेल, तसं कोणतीच डावखुरी व्यक्ती लिहीत नाही.

गायब होणारे तपशील

अनेकदा एआय व्हीडिओमध्ये खूप गमतीशीर काहीतरी सुरू असतं आणि आपण त्यात इतके गुंग होतो की त्यातल्या बारकाव्यांकडे आपलं लक्ष जात नाही.

ट्रॅम्पोलिनवर उड्या मारणाऱ्या सशांचा व्हीडिओ काही काळापूर्वी प्रचंड व्हायरल झाला होता. पण नीट पाहिलंत तर लक्षात येईल की हा एआय जनरेटेड आहे.

यात सुरुवातीला 6 ससे आहेत. उड्या मारताना एक आपोआप गायब होतो. आणि एका सशाचा आकारंच बदलतो. शिवाय, हा व्हीडिओ पण सीसी फुटेज असल्याचं भासवलंय.

कमी सेकंदांच्या क्लिप्स

एआय व्हीडिओ ओळखण्याचा आणखीन एक मार्ग म्हणजे या क्लिप्स अगदी छोट्या, काही सेकंदांच्या असतात. म्हणजे आपण इन्स्टाग्राम किंवा शॉर्ट्सला जे व्हीडिओ पाहतो, त्यापेक्षा या क्लिप्सचा कालावधी अगदी कमी असतो.

कारण जास्त लांबीचे व्हीडिओ एआयवर तयार करायाला पैसे भरावे लागतात. आणि फ्री व्हर्जनमध्ये तुम्हाला फक्त काही सेकंदांची क्लिपच तयार करता येते. म्हणून हे व्हीडिओ 6-8-10 सेकंदांचे असतात.

वॉटरमार्क

ओपन एआयचं सोरा हे अ‍ॅप वापरून व्हीडिओ तयार केले की त्यावर एक वॉटरमार्क येतो.

त्यामुळे तुम्ही पाहत असलेल्या व्हीडिओवर स्क्रीनवर सोरा हे नाव असेल, तर तो AI व्हीडिओ आहे.

अनेकदा व्हीडिओ व्हायरल करणारे लोक एडिटिंग सॉफ्टवेअर वापरून हा वॉटरमार्क झाकतात.

पण असं केल्याने व्हीडिओच्या कुठल्यातरी भागात स्क्रीनवर ब्लर पॅच दिसतात,आणि गायब होतात. त्याकडेही लक्ष ठेवा.

चुकलेलं भौतिकशास्त्र

एआय अनेक गोष्टी हुबेहूब कॉपी करत असलं तरी एआयला अजून भौतिकशास्त्र फोटो, व्हीडिओत फारसं साधलेलं नाही. म्हणजे हा तथाकथितपणे पुण्यात फिरणाऱ्या बिबट्याचा फोटो.

या बिबट्याच्या शरीराचा आकार वेगळा आहे, शेपूट धूसर आहे आणि उजेड कुठून येतोय. सावली कुठे आणि किती मोठी आहे या गोष्टी जुळत नाहीत. हा एआयने केलेला व्हीडिओ असल्याचं वनविभागानेही स्पष्ट केलंय.

याच गोष्टी त्या व्हीडिओत कुणी उडी मारत असेल, धावत असेल, तर त्याबाबतही जाणवतात.

AI क्रिया आणि प्रतिक्रिया हे पण कळत नाही.

खरंच असं होऊ शकतं?

सगळ्यात महत्त्वाची गोष्ट म्हणजे एखादा व्हीडिओ पाहताना खरंच असं होऊ शकतं का, याचा विचार करा.

म्हणजे रस्त्यावर बसलेला वाघ आणि त्याला दारू पाजण्याचा प्रयत्न करणारा माणूस, असं खरंच होऊ शकतं का? फॉरवर्ड करायच्या आधी विचार करा.

हा व्हायरल व्हीडिओ पेंचमधला नाही हे स्पष्ट करत नागपूर ग्रामीण पोलिसांनी ही क्लिप सोशल मीडियावर पोस्ट करणाऱ्या मुंबईतल्या एका व्यक्तीला कायदेशीर नोटीसही दिलेली आहे.

त्यामुळे असे भीती पसरवणारे व्हीडिओ तयार करू नका, पोस्ट करू नका. तुमच्यावर कारवाई होऊ शकते.

AI मुळे डीपफेक्स तयार करणं सोपं झालंय. दिवसेंदिवस हे फोटो, व्हीडिओ अधिकाधिक वास्तवासारखे होत राहणार, आपल्याला खरेच असल्यासारखे वाटणार, हे ही पण वास्तव आहे. त्यामुळे आपल्यालाच स्वतःला काही सवयी लावून घ्यायला हव्यात.

व्हॉट्सअ‍ॅपवरचे फॉरवर्ड्स, आपल्याला येणारे ऑफर्सचे फोन कॉल्स याबद्दल आपण जसे आता सतर्क राहतो, तसंच आता व्हीडिओंच्याबाबतीतही करायला हवं.

बीबीसीसाठी कलेक्टिव्ह न्यूजरूमचे प्रकाशन.