விஜய் குரலை செயற்கை நுண்ணறிவு மூலம் எப்படி உருவாக்கினார்கள்? போலியை கண்டறிவது எப்படி?

    • எழுதியவர், விஷ்ணு ஸ்வரூப்
    • பதவி, பிபிசி தமிழ்

சமீபத்தில் நடிகர் விஜய் பேசுவது போல ஒரு ஆடியோ சமூக வலைதளங்களில் பரவியது.

அதில், நடிகர் விஜயின் குரல், காவிரி நதிநீர் விவகாரத்தால், அக்டோபர் 19 வெளியாகவிருக்கும் தனது ‘லியோ’ படத்தை கர்நாடகாவில் திரையிடப் போவதில்லை, என்று பேசியிருந்தது.

இந்த ஆடியோ பரவியதும், நடிகர் விஜயின் தரப்பிலிருந்து, இது போலியானது என்றும், நடிகர் விஜய் அவ்வாறு பேசவில்லை என்றும், அது செயற்கை நுண்ணறிவு (Artificial Intelligence - AI) மென்பொருட்கள் மூலம் உருவாக்கப்பட்டது என்றும் விளக்கமளிக்கப்பட்டது.

செயற்கை நுண்ணறிவு மூலம் ஒரு பிரபலத்தின் குரலோ, தோற்றமோ போலி செய்யப்பட்டு அது சர்ச்சைக்குள்ளான ஒரு சம்பவம் இது.

இதேபோல், சமீப காலங்களில் பிரதமர் மோதியின் குரலில் பிரபலமான இந்தி பாடல்கள் பாடுவது போன்ற ஆடியோக்களும் யூடியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றப் படுகின்றன.

இதுபோன்ற சினிமா பிரபலங்கள், அரசியல்வாதிகள் ஆகியோரின் குரலில் போலியான ஆடியோக்கள், வீடியோக்கள் எப்படி உருவாக்கப் படுகின்றன, இவற்றிலிருந்து விழிப்புடன் இருப்பது எப்படி? இதுபோன்ற குற்றங்களைப் பற்றிச் சட்டம் என்ன சொல்கிறது? இவற்றைப் பாதுகாப்பாகப் பயன்படுத்துவதற்கான நெறிமுறைகள் என்ன?

பிரபலங்களின் குரலில் போலி எப்படி?

இந்தப் போலி ஆடியோக்கள் எப்படி உருவாக்கப்படுகின்றன என்பது பற்றி அறிந்துகொள்ள சைபர் கிரைம் வல்லுநரும், Google News Initiative India Network அமைப்பில் போலிச் செய்திகளைக் கண்டறிவதற்கான பயிற்சியாளராகவும் இருக்கும் முரளிகிருஷ்ணன் சின்னதுரையிடம் பிபிசி தமிழ் பேசியது.

அவர் கூறுகையில், "பொதுவாக சிறிய அளவிலான செயற்கை நுண்ணறிவு மென்பொருட்களை உபயோகித்து ஒருவரின் குரலைப் போலி செய்தால், அதில் அது போலியான குரல் என்பதைக் காட்டிக் கொடுக்கும் வகையில் ‘voice plasticity’ எனும் தன்மை இருக்கும்" என்றார்.

“ஆனால் ஒரு செயற்கை நுண்ணறிவு மென்பொருளில் எந்த அளவு ஒருவரது குரலை உள்ளீடு செய்கிறோமோ, அந்த அளவு அந்த மென்பொருள் அந்நபரது குரலின் தன்மையையும் அசைவுகளையும் உள்வாங்கி, நம்பகத்தன்மையான போலிகளை உருவாக்கித் தரும்,” என்கிறார்.

இதுதான் ‘machine learning’ என்று அழைக்கப்படுகிறது.

பொதுவெளியில், பிரதமர் மோதி, நடிகர் விஜய் போன்ற பிரபலங்களின் குரல் உள்ள ஆடியோக்கள் வீடியோக்கள் ஆகியவை அதிகம் கிடைப்பதால், அவற்றை ஒரு செயற்கை நுண்ணறிவுச் செயலியில் உள்ளிட்டு கிட்டத்தட்ட நம்பும்படியான போலிகளைப் பெறலாம், என்றார்.

“இப்படி நம்பகத்தன்மையான போலி குரல்களை உருவாக்க, அதிகப்படியான பொருட்செலவும் கருவிகளும் தேவைப்படும்,” என்கிறார் முரளிகிருஷ்ணன். பலசமயம் ஏதாவது அரசியல் அல்லது வணிக உள்நோக்கம் இருப்பவர்கள் தான் இதுபோன்ற செயல்களில் ஈடுபடுகிறார்கள் என்கிறார் அவர்.

போலிகளை எப்படி கண்டுபிடிப்பது?

இதுபோன்ற போலி ஆடியோக்களை, Adobe Audition, Audacity போன்ற audio editing மென்பொருட்களில் பதிவிறக்கி, அவற்றின் அலை வடிவங்களைப் (wave formats) பார்த்தால், அவற்றிலுள்ள ஒழுங்கின்மை அது அசலா போலியா என்பதை ஓரளவு காட்டிக் கொடுத்துவிடும் என்கிறார் முரளிகிருஷ்ணன்.

சைபர் தடயவியல் நிபுணர்கள் இதுபோன்ற ஆடியோக்களை வேகமாக ஓடவிட்டு, மெதுவாக ஓடவிட்டு, அவற்றின் அலை வடிவங்களைப் பார்த்து, அவற்றில் பின்னணியில் கேட்கும் ஓசைகளை வைத்தும் அது அசலா போலியா என்பதை கண்டுபிடிக்கிறார்கள், என்கிறார் அவர்.

“ஆனால் அதற்கும் மேல் ஒரு நிபுணரின் திறன், அனுபவம் ஆகியவையும் முக்கியம். ஒரு ஆடியோவை ஒரு மென்பொருளில் உள்ளீடு செய்வதாலேயே அது அசலா போலியா என்பது உடனே தெரிந்து விடாது. அதைக் கையாள்பவரின் திறனும் அனுபவமும் மிக முக்கியம். அது சாதாரணமாக எல்லோரிடமும் இருக்காது,” என்கிறார் முரளிகிருஷ்ணன்.

மேலும் பேசிய அவர், இணையத்திலோ, சமூக வலைதளங்களிலோ இதுபோன்ற ஆடியோக்களைக் கேட்க நேர்ந்தால், அவற்றின் உண்மைத்தன்மையை அறிந்து கொள்ளாமல், நம்பவோ பகிரவோ வேண்டாம், என்கிறார் முரளிகிருஷ்ணன்.

பொதுமக்களாக நாம் அவற்றின் உண்மைத்தன்மையை அறிந்துகொள்வதற்கு இரண்டு வழிகள் இருக்கின்றன என்கிறார் அவர்.

ஒன்று அந்த ஆடியோவில் சம்பந்தப்பட்டிருக்கும் நபரே அதற்கான விளக்கத்தையோ மறுப்பையோ தெரிவிக்கும் வரை காத்திருப்பது.

அல்லது, அது மணிப்பூர் போல பதற்றமான சூழலில் இருந்து பகிரப்படுகிறது என்றால், சைபர் வல்லுநர்கள் அவற்றைச் சோதித்து அவற்றின் உண்மைத்தன்மையை வெளியிடும் வரை காத்திருப்பது.

சட்டம் என்ன சொல்கிறது?

இதுபோல செயற்கை நுண்ணறிவைப் பயன்படுத்திச் செய்யப்படும் சைபர் குற்றங்கள் பற்றி சட்டம் என்ன சொல்கிறது என்பது பற்றித் தெரிந்துகொள்ள, பிபிசி தமிழ் சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான கார்த்திகேயனிடம் பேசியது.

முதலாவதாக, பிரபலங்களின் தோற்றம் மற்றும் குரலைப் போலி செய்பவர்கள் அடையாளத் திருட்டில் (identity theft) ஈடுபடுகிறார்கள் என்றார் கார்த்திகேயன். இதற்கு தகவல் தொழில்நுட்பச் சட்டத்தின் 66(சி) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.

அதேபோல, பிரபலங்களின் குரல் அல்லது தோற்றத்தைப் பயன்படுத்தி ஒரு செய்தியையோ கருத்தையோ பகிரும் போது அது ஆள் மாறாட்டம் (impersonation) எனும் குற்றத்தின் கீழ் வரும் என்கிறார் அவர். இதற்கு தகவல் தொழில்நுட்பச் சட்டத்தின் 66(டி) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.

மேலும் அவர் கூறுகையில், “செயற்கை நுண்ணறிவு செயலிகளைப் பயன்படுத்தி படங்கள், ஆடியோ, வீடியோ போன்றவற்றை உருவாக்கி இன்ஸ்டாகிராம், யூ டியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றுவதற்கு இணையம் தேவைப்படுகிறது. அந்த இணைய இணைப்பின் ஐ.பி. முகவரியைப் (IP Address) பயன்படுத்தி அதை பதிவேற்றியவர் எப்பகுதியில் வசிக்கிறார் என்பதைக் கண்டுபிடித்துவிடலாம்,” என்றார்.

இதுபோன்ற போலி ஆடியோ, வீடியோக்களை உருவாக்குபவர்கள் மட்டுமல்ல, அவற்றைப் உருவாக்கத் தூண்டுபவர்களுக்கும், பகிர்பவர்களுக்கும், காட்டுபவர்களுக்கும் இச்சட்டத்தின் பிரிவுகளின் கீழ் தண்டனைகள் உண்டு என்கிறார் கார்த்திகேயன்.

“இதுபோன்ற செயல்களில் ஈடுபடுபவர்கள் இச்சட்டத்தைப் பற்றித் தெரியாது என்று சொல்வது அவர்களைக் குற்றமற்றவர்களாக்காது,” என்கிறார் அவர்.

'போலிகளை கண்டுபிடிக்க கட்டமைப்பை வலுப்படுத்த வேண்டும்'

இதுபோன்ற போலி ஆடியோ வீடியோக்களைக் கண்டுபிடிக்கத் தேவையான கட்டமைப்பை மாநில அளவில் உருவாக்க வேண்டும் என்கிறார் கார்த்திகேயன்.

“இதுபோன்ற குற்றங்களுக்கான தண்டனைகள் சட்டத்தில் உண்டு. ஆனால் போலி ஆடியோ, வீடியோக்களைக் கண்டுபிடிக்கும் கட்டமைப்பு இன்னும் வலுப்படுத்த வேண்டும் என்கிறார் அவர்.

செயற்கை நுண்ணறிவு தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும் என்கிறார் அவர்.

உதாரணத்திற்கு, தமிழகத்தில் எங்கு நடக்கும் சைபர் குற்றங்களுக்கும் இப்போது சென்னையிலுள்ள சைபர் தடயவியல் ஆய்வகத்தைத் தான் சார்ந்திருக்க வேண்டியிருக்கிறது. இதனால் நேரம் விரயமாகிறது, என்கிறார்.

இந்தியாவில் தெலங்கானா மாநிலத்தில் உயர் ரக சைபர் தடயவியல் உபகரணங்கள் உள்ளதாகக் கூறுகிறார் கார்த்திகேயன்.

‘இந்தத் தொழில்நுட்பம் ஒரு கத்தி போன்றது’

செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசிய சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம், இத்தொழில்நுட்பம் ஒரு கத்தி போன்றது, அதை நன்மைக்கும் பயன்படுத்தலாம், ஆனால் இதுபற்றிச் சரியான விழிப்புணர்வு இல்லையென்றால், அது அபாயகரமாக முடிந்துவிடும் என்கிறார்.

அவர் கூறுகையில், இதுபோன்ற செயற்கை நுண்ணறிவு தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம் என்கிறார்.

“உதாரணத்திற்கு, ஒரு திரைப்படத்தில், செயற்கை நுண்ணறிவு தொழில்நுட்பம், டீப்ஃபேக் (deepfake) போன்றவறைப் பயன்படுத்தி, எம்.ஜி.ஆர். நடனமாடுவது போலக் காட்சிப்படுத்தலாம், ஒரு பாடலை சிவாஜி கணேசன் பாடினால் எப்படியிருக்கும் என்று செய்து பார்க்கலாம், அல்லது ஒரு புத்தகத்தை வாசிக்கும் ஆடியோ பதிவை, வேறொரு பிரபலத்தின் குரலில் உருவாக்கலாம்,” என்கிறார்.

ஆனால், முக்கியமாக இவற்றுக்குச் அப்பிரபலங்களிடமோ, அவர்களுக்குச் சம்பந்தப்பட்டச் சட்டரீதியான பிரதிநிதியிடமோ சரியான அனுமதி பெற்றே செய்யவேண்டும் என்கிறார்.

“உதாரணத்திற்கு, செயற்கை நுண்ணறிவு தொழில்நுட்பம் மூலம் பிரதமர் மோதியின் குரலில் பிரபலமான பாடல்களை உருவாக்கி சிலர் பகிர்ந்து வருகின்றனர். இது சட்டப்படி குற்றம். அந்நபரிடம் அனுமதி வாங்காமல் இப்படிச் செய்யக்கூடாது,” என்கிறார் அவர்.

இது பொழுதுபோக்குக்காகச் செய்யப்பட்டிருந்தாலும் குற்றம் தான் என்கிறார் வினோத்.

‘விதிமுறைகளும் விழிப்புணர்வும் தேவை’

இதுபோன்ற செயற்கை நுண்ணறிவு தொழில்நுட்பச் செயலிகள் இன்று மக்களிடம் பரவலாகச் சென்று சேர்ந்து இருக்கிறது. ஆனால் அவற்றைப் பயன்படுத்துவதற்கான விதிமுறைகளும், சட்டப்பூர்வமானப் பயன்பாட்டுக் கையேடும் உருவாக்கப்படவில்லை, அது மக்களுக்கும் எடுத்துச் சொல்லப்படவில்லை என்கிறார் வினோத்.

இதனால் பல இளைஞர்கள் இதுபற்றிய விழிப்புணர்வு இல்லாமலேயே இதுபோன்ற செயல்களில் ஈடுபட்டு, வழக்குகளில் சிக்கி, வாழ்க்கையைத் தொலைக்கும் சாத்தியமும் உண்டு என்கிறார்.

“அரசங்கமும், ஊடங்களும் செயற்கை நுண்ணறிவு தொழில்நுட்பம், deepfake, போன்றவற்றை எப்படிப் பாதுகாப்பாக, சட்ட வரையறைக்குட்பட்டுப் பயன்படுத்துவது என்பது பற்றிப் பொதுமக்களுக்கு விழிப்புணர்வு வழங்க வேண்டும்,” என்கிறார் வினோத்.

(சமூக ஊடகங்களில் பிபிசி தமிழ் ஃபேஸ்புக், இன்ஸ்டாகிராம், எக்ஸ் (டிவிட்டர்) மற்றும் யூட்யூப் பக்கங்கள் மூலம் எங்களுடன் இணைந்திருங்கள்.)