You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
விஜய் குரலை செயற்கை நுண்ணறிவு மூலம் எப்படி உருவாக்கினார்கள்? போலியை கண்டறிவது எப்படி?
- எழுதியவர், விஷ்ணு ஸ்வரூப்
- பதவி, பிபிசி தமிழ்
சமீபத்தில் நடிகர் விஜய் பேசுவது போல ஒரு ஆடியோ சமூக வலைதளங்களில் பரவியது.
அதில், நடிகர் விஜயின் குரல், காவிரி நதிநீர் விவகாரத்தால், அக்டோபர் 19 வெளியாகவிருக்கும் தனது ‘லியோ’ படத்தை கர்நாடகாவில் திரையிடப் போவதில்லை, என்று பேசியிருந்தது.
இந்த ஆடியோ பரவியதும், நடிகர் விஜயின் தரப்பிலிருந்து, இது போலியானது என்றும், நடிகர் விஜய் அவ்வாறு பேசவில்லை என்றும், அது செயற்கை நுண்ணறிவு (Artificial Intelligence - AI) மென்பொருட்கள் மூலம் உருவாக்கப்பட்டது என்றும் விளக்கமளிக்கப்பட்டது.
செயற்கை நுண்ணறிவு மூலம் ஒரு பிரபலத்தின் குரலோ, தோற்றமோ போலி செய்யப்பட்டு அது சர்ச்சைக்குள்ளான ஒரு சம்பவம் இது.
இதேபோல், சமீப காலங்களில் பிரதமர் மோதியின் குரலில் பிரபலமான இந்தி பாடல்கள் பாடுவது போன்ற ஆடியோக்களும் யூடியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றப் படுகின்றன.
இதுபோன்ற சினிமா பிரபலங்கள், அரசியல்வாதிகள் ஆகியோரின் குரலில் போலியான ஆடியோக்கள், வீடியோக்கள் எப்படி உருவாக்கப் படுகின்றன, இவற்றிலிருந்து விழிப்புடன் இருப்பது எப்படி? இதுபோன்ற குற்றங்களைப் பற்றிச் சட்டம் என்ன சொல்கிறது? இவற்றைப் பாதுகாப்பாகப் பயன்படுத்துவதற்கான நெறிமுறைகள் என்ன?
பிரபலங்களின் குரலில் போலி எப்படி?
இந்தப் போலி ஆடியோக்கள் எப்படி உருவாக்கப்படுகின்றன என்பது பற்றி அறிந்துகொள்ள சைபர் கிரைம் வல்லுநரும், Google News Initiative India Network அமைப்பில் போலிச் செய்திகளைக் கண்டறிவதற்கான பயிற்சியாளராகவும் இருக்கும் முரளிகிருஷ்ணன் சின்னதுரையிடம் பிபிசி தமிழ் பேசியது.
அவர் கூறுகையில், "பொதுவாக சிறிய அளவிலான செயற்கை நுண்ணறிவு மென்பொருட்களை உபயோகித்து ஒருவரின் குரலைப் போலி செய்தால், அதில் அது போலியான குரல் என்பதைக் காட்டிக் கொடுக்கும் வகையில் ‘voice plasticity’ எனும் தன்மை இருக்கும்" என்றார்.
“ஆனால் ஒரு செயற்கை நுண்ணறிவு மென்பொருளில் எந்த அளவு ஒருவரது குரலை உள்ளீடு செய்கிறோமோ, அந்த அளவு அந்த மென்பொருள் அந்நபரது குரலின் தன்மையையும் அசைவுகளையும் உள்வாங்கி, நம்பகத்தன்மையான போலிகளை உருவாக்கித் தரும்,” என்கிறார்.
இதுதான் ‘machine learning’ என்று அழைக்கப்படுகிறது.
பொதுவெளியில், பிரதமர் மோதி, நடிகர் விஜய் போன்ற பிரபலங்களின் குரல் உள்ள ஆடியோக்கள் வீடியோக்கள் ஆகியவை அதிகம் கிடைப்பதால், அவற்றை ஒரு செயற்கை நுண்ணறிவுச் செயலியில் உள்ளிட்டு கிட்டத்தட்ட நம்பும்படியான போலிகளைப் பெறலாம், என்றார்.
“இப்படி நம்பகத்தன்மையான போலி குரல்களை உருவாக்க, அதிகப்படியான பொருட்செலவும் கருவிகளும் தேவைப்படும்,” என்கிறார் முரளிகிருஷ்ணன். பலசமயம் ஏதாவது அரசியல் அல்லது வணிக உள்நோக்கம் இருப்பவர்கள் தான் இதுபோன்ற செயல்களில் ஈடுபடுகிறார்கள் என்கிறார் அவர்.
போலிகளை எப்படி கண்டுபிடிப்பது?
இதுபோன்ற போலி ஆடியோக்களை, Adobe Audition, Audacity போன்ற audio editing மென்பொருட்களில் பதிவிறக்கி, அவற்றின் அலை வடிவங்களைப் (wave formats) பார்த்தால், அவற்றிலுள்ள ஒழுங்கின்மை அது அசலா போலியா என்பதை ஓரளவு காட்டிக் கொடுத்துவிடும் என்கிறார் முரளிகிருஷ்ணன்.
சைபர் தடயவியல் நிபுணர்கள் இதுபோன்ற ஆடியோக்களை வேகமாக ஓடவிட்டு, மெதுவாக ஓடவிட்டு, அவற்றின் அலை வடிவங்களைப் பார்த்து, அவற்றில் பின்னணியில் கேட்கும் ஓசைகளை வைத்தும் அது அசலா போலியா என்பதை கண்டுபிடிக்கிறார்கள், என்கிறார் அவர்.
“ஆனால் அதற்கும் மேல் ஒரு நிபுணரின் திறன், அனுபவம் ஆகியவையும் முக்கியம். ஒரு ஆடியோவை ஒரு மென்பொருளில் உள்ளீடு செய்வதாலேயே அது அசலா போலியா என்பது உடனே தெரிந்து விடாது. அதைக் கையாள்பவரின் திறனும் அனுபவமும் மிக முக்கியம். அது சாதாரணமாக எல்லோரிடமும் இருக்காது,” என்கிறார் முரளிகிருஷ்ணன்.
மேலும் பேசிய அவர், இணையத்திலோ, சமூக வலைதளங்களிலோ இதுபோன்ற ஆடியோக்களைக் கேட்க நேர்ந்தால், அவற்றின் உண்மைத்தன்மையை அறிந்து கொள்ளாமல், நம்பவோ பகிரவோ வேண்டாம், என்கிறார் முரளிகிருஷ்ணன்.
பொதுமக்களாக நாம் அவற்றின் உண்மைத்தன்மையை அறிந்துகொள்வதற்கு இரண்டு வழிகள் இருக்கின்றன என்கிறார் அவர்.
ஒன்று அந்த ஆடியோவில் சம்பந்தப்பட்டிருக்கும் நபரே அதற்கான விளக்கத்தையோ மறுப்பையோ தெரிவிக்கும் வரை காத்திருப்பது.
அல்லது, அது மணிப்பூர் போல பதற்றமான சூழலில் இருந்து பகிரப்படுகிறது என்றால், சைபர் வல்லுநர்கள் அவற்றைச் சோதித்து அவற்றின் உண்மைத்தன்மையை வெளியிடும் வரை காத்திருப்பது.
சட்டம் என்ன சொல்கிறது?
இதுபோல செயற்கை நுண்ணறிவைப் பயன்படுத்திச் செய்யப்படும் சைபர் குற்றங்கள் பற்றி சட்டம் என்ன சொல்கிறது என்பது பற்றித் தெரிந்துகொள்ள, பிபிசி தமிழ் சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான கார்த்திகேயனிடம் பேசியது.
முதலாவதாக, பிரபலங்களின் தோற்றம் மற்றும் குரலைப் போலி செய்பவர்கள் அடையாளத் திருட்டில் (identity theft) ஈடுபடுகிறார்கள் என்றார் கார்த்திகேயன். இதற்கு தகவல் தொழில்நுட்பச் சட்டத்தின் 66(சி) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.
அதேபோல, பிரபலங்களின் குரல் அல்லது தோற்றத்தைப் பயன்படுத்தி ஒரு செய்தியையோ கருத்தையோ பகிரும் போது அது ஆள் மாறாட்டம் (impersonation) எனும் குற்றத்தின் கீழ் வரும் என்கிறார் அவர். இதற்கு தகவல் தொழில்நுட்பச் சட்டத்தின் 66(டி) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.
மேலும் அவர் கூறுகையில், “செயற்கை நுண்ணறிவு செயலிகளைப் பயன்படுத்தி படங்கள், ஆடியோ, வீடியோ போன்றவற்றை உருவாக்கி இன்ஸ்டாகிராம், யூ டியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றுவதற்கு இணையம் தேவைப்படுகிறது. அந்த இணைய இணைப்பின் ஐ.பி. முகவரியைப் (IP Address) பயன்படுத்தி அதை பதிவேற்றியவர் எப்பகுதியில் வசிக்கிறார் என்பதைக் கண்டுபிடித்துவிடலாம்,” என்றார்.
இதுபோன்ற போலி ஆடியோ, வீடியோக்களை உருவாக்குபவர்கள் மட்டுமல்ல, அவற்றைப் உருவாக்கத் தூண்டுபவர்களுக்கும், பகிர்பவர்களுக்கும், காட்டுபவர்களுக்கும் இச்சட்டத்தின் பிரிவுகளின் கீழ் தண்டனைகள் உண்டு என்கிறார் கார்த்திகேயன்.
“இதுபோன்ற செயல்களில் ஈடுபடுபவர்கள் இச்சட்டத்தைப் பற்றித் தெரியாது என்று சொல்வது அவர்களைக் குற்றமற்றவர்களாக்காது,” என்கிறார் அவர்.
'போலிகளை கண்டுபிடிக்க கட்டமைப்பை வலுப்படுத்த வேண்டும்'
இதுபோன்ற போலி ஆடியோ வீடியோக்களைக் கண்டுபிடிக்கத் தேவையான கட்டமைப்பை மாநில அளவில் உருவாக்க வேண்டும் என்கிறார் கார்த்திகேயன்.
“இதுபோன்ற குற்றங்களுக்கான தண்டனைகள் சட்டத்தில் உண்டு. ஆனால் போலி ஆடியோ, வீடியோக்களைக் கண்டுபிடிக்கும் கட்டமைப்பு இன்னும் வலுப்படுத்த வேண்டும் என்கிறார் அவர்.
செயற்கை நுண்ணறிவு தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும் என்கிறார் அவர்.
உதாரணத்திற்கு, தமிழகத்தில் எங்கு நடக்கும் சைபர் குற்றங்களுக்கும் இப்போது சென்னையிலுள்ள சைபர் தடயவியல் ஆய்வகத்தைத் தான் சார்ந்திருக்க வேண்டியிருக்கிறது. இதனால் நேரம் விரயமாகிறது, என்கிறார்.
இந்தியாவில் தெலங்கானா மாநிலத்தில் உயர் ரக சைபர் தடயவியல் உபகரணங்கள் உள்ளதாகக் கூறுகிறார் கார்த்திகேயன்.
‘இந்தத் தொழில்நுட்பம் ஒரு கத்தி போன்றது’
செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசிய சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம், இத்தொழில்நுட்பம் ஒரு கத்தி போன்றது, அதை நன்மைக்கும் பயன்படுத்தலாம், ஆனால் இதுபற்றிச் சரியான விழிப்புணர்வு இல்லையென்றால், அது அபாயகரமாக முடிந்துவிடும் என்கிறார்.
அவர் கூறுகையில், இதுபோன்ற செயற்கை நுண்ணறிவு தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம் என்கிறார்.
“உதாரணத்திற்கு, ஒரு திரைப்படத்தில், செயற்கை நுண்ணறிவு தொழில்நுட்பம், டீப்ஃபேக் (deepfake) போன்றவறைப் பயன்படுத்தி, எம்.ஜி.ஆர். நடனமாடுவது போலக் காட்சிப்படுத்தலாம், ஒரு பாடலை சிவாஜி கணேசன் பாடினால் எப்படியிருக்கும் என்று செய்து பார்க்கலாம், அல்லது ஒரு புத்தகத்தை வாசிக்கும் ஆடியோ பதிவை, வேறொரு பிரபலத்தின் குரலில் உருவாக்கலாம்,” என்கிறார்.
ஆனால், முக்கியமாக இவற்றுக்குச் அப்பிரபலங்களிடமோ, அவர்களுக்குச் சம்பந்தப்பட்டச் சட்டரீதியான பிரதிநிதியிடமோ சரியான அனுமதி பெற்றே செய்யவேண்டும் என்கிறார்.
“உதாரணத்திற்கு, செயற்கை நுண்ணறிவு தொழில்நுட்பம் மூலம் பிரதமர் மோதியின் குரலில் பிரபலமான பாடல்களை உருவாக்கி சிலர் பகிர்ந்து வருகின்றனர். இது சட்டப்படி குற்றம். அந்நபரிடம் அனுமதி வாங்காமல் இப்படிச் செய்யக்கூடாது,” என்கிறார் அவர்.
இது பொழுதுபோக்குக்காகச் செய்யப்பட்டிருந்தாலும் குற்றம் தான் என்கிறார் வினோத்.
‘விதிமுறைகளும் விழிப்புணர்வும் தேவை’
இதுபோன்ற செயற்கை நுண்ணறிவு தொழில்நுட்பச் செயலிகள் இன்று மக்களிடம் பரவலாகச் சென்று சேர்ந்து இருக்கிறது. ஆனால் அவற்றைப் பயன்படுத்துவதற்கான விதிமுறைகளும், சட்டப்பூர்வமானப் பயன்பாட்டுக் கையேடும் உருவாக்கப்படவில்லை, அது மக்களுக்கும் எடுத்துச் சொல்லப்படவில்லை என்கிறார் வினோத்.
இதனால் பல இளைஞர்கள் இதுபற்றிய விழிப்புணர்வு இல்லாமலேயே இதுபோன்ற செயல்களில் ஈடுபட்டு, வழக்குகளில் சிக்கி, வாழ்க்கையைத் தொலைக்கும் சாத்தியமும் உண்டு என்கிறார்.
“அரசங்கமும், ஊடங்களும் செயற்கை நுண்ணறிவு தொழில்நுட்பம், deepfake, போன்றவற்றை எப்படிப் பாதுகாப்பாக, சட்ட வரையறைக்குட்பட்டுப் பயன்படுத்துவது என்பது பற்றிப் பொதுமக்களுக்கு விழிப்புணர்வு வழங்க வேண்டும்,” என்கிறார் வினோத்.
(சமூக ஊடகங்களில் பிபிசி தமிழ் ஃபேஸ்புக், இன்ஸ்டாகிராம், எக்ஸ் (டிவிட்டர்) மற்றும் யூட்யூப் பக்கங்கள் மூலம் எங்களுடன் இணைந்திருங்கள்.)