விஜய் குரலை செயற்கை நுண்ணறிவு மூலம் எப்படி உருவாக்கினார்கள்? போலியை கண்டறிவது எப்படி?

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Getty Images

    • எழுதியவர், விஷ்ணு ஸ்வரூப்
    • பதவி, பிபிசி தமிழ்

சமீபத்தில் நடிகர் விஜய் பேசுவது போல ஒரு ஆடியோ சமூக வலைதளங்களில் பரவியது.

அதில், நடிகர் விஜயின் குரல், காவிரி நதிநீர் விவகாரத்தால், அக்டோபர் 19 வெளியாகவிருக்கும் தனது ‘லியோ’ படத்தை கர்நாடகாவில் திரையிடப் போவதில்லை, என்று பேசியிருந்தது.

இந்த ஆடியோ பரவியதும், நடிகர் விஜயின் தரப்பிலிருந்து, இது போலியானது என்றும், நடிகர் விஜய் அவ்வாறு பேசவில்லை என்றும், அது செயற்கை நுண்ணறிவு (Artificial Intelligence - AI) மென்பொருட்கள் மூலம் உருவாக்கப்பட்டது என்றும் விளக்கமளிக்கப்பட்டது.

செயற்கை நுண்ணறிவு மூலம் ஒரு பிரபலத்தின் குரலோ, தோற்றமோ போலி செய்யப்பட்டு அது சர்ச்சைக்குள்ளான ஒரு சம்பவம் இது.

இதேபோல், சமீப காலங்களில் பிரதமர் மோதியின் குரலில் பிரபலமான இந்தி பாடல்கள் பாடுவது போன்ற ஆடியோக்களும் யூடியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றப் படுகின்றன.

இதுபோன்ற சினிமா பிரபலங்கள், அரசியல்வாதிகள் ஆகியோரின் குரலில் போலியான ஆடியோக்கள், வீடியோக்கள் எப்படி உருவாக்கப் படுகின்றன, இவற்றிலிருந்து விழிப்புடன் இருப்பது எப்படி? இதுபோன்ற குற்றங்களைப் பற்றிச் சட்டம் என்ன சொல்கிறது? இவற்றைப் பாதுகாப்பாகப் பயன்படுத்துவதற்கான நெறிமுறைகள் என்ன?

பிரபலங்களின் குரலில் போலி எப்படி?

இந்தப் போலி ஆடியோக்கள் எப்படி உருவாக்கப்படுகின்றன என்பது பற்றி அறிந்துகொள்ள சைபர் கிரைம் வல்லுநரும், Google News Initiative India Network அமைப்பில் போலிச் செய்திகளைக் கண்டறிவதற்கான பயிற்சியாளராகவும் இருக்கும் முரளிகிருஷ்ணன் சின்னதுரையிடம் பிபிசி தமிழ் பேசியது.

அவர் கூறுகையில், "பொதுவாக சிறிய அளவிலான செயற்கை நுண்ணறிவு மென்பொருட்களை உபயோகித்து ஒருவரின் குரலைப் போலி செய்தால், அதில் அது போலியான குரல் என்பதைக் காட்டிக் கொடுக்கும் வகையில் ‘voice plasticity’ எனும் தன்மை இருக்கும்" என்றார்.

“ஆனால் ஒரு செயற்கை நுண்ணறிவு மென்பொருளில் எந்த அளவு ஒருவரது குரலை உள்ளீடு செய்கிறோமோ, அந்த அளவு அந்த மென்பொருள் அந்நபரது குரலின் தன்மையையும் அசைவுகளையும் உள்வாங்கி, நம்பகத்தன்மையான போலிகளை உருவாக்கித் தரும்,” என்கிறார்.

இதுதான் ‘machine learning’ என்று அழைக்கப்படுகிறது.

பொதுவெளியில், பிரதமர் மோதி, நடிகர் விஜய் போன்ற பிரபலங்களின் குரல் உள்ள ஆடியோக்கள் வீடியோக்கள் ஆகியவை அதிகம் கிடைப்பதால், அவற்றை ஒரு செயற்கை நுண்ணறிவுச் செயலியில் உள்ளிட்டு கிட்டத்தட்ட நம்பும்படியான போலிகளைப் பெறலாம், என்றார்.

“இப்படி நம்பகத்தன்மையான போலி குரல்களை உருவாக்க, அதிகப்படியான பொருட்செலவும் கருவிகளும் தேவைப்படும்,” என்கிறார் முரளிகிருஷ்ணன். பலசமயம் ஏதாவது அரசியல் அல்லது வணிக உள்நோக்கம் இருப்பவர்கள் தான் இதுபோன்ற செயல்களில் ஈடுபடுகிறார்கள் என்கிறார் அவர்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Muralikrishnan Chinnadurai

படக்குறிப்பு, முரளிகிருஷ்ணன் சின்னதுரை, Google News Initiative India Network

போலிகளை எப்படி கண்டுபிடிப்பது?

இதுபோன்ற போலி ஆடியோக்களை, Adobe Audition, Audacity போன்ற audio editing மென்பொருட்களில் பதிவிறக்கி, அவற்றின் அலை வடிவங்களைப் (wave formats) பார்த்தால், அவற்றிலுள்ள ஒழுங்கின்மை அது அசலா போலியா என்பதை ஓரளவு காட்டிக் கொடுத்துவிடும் என்கிறார் முரளிகிருஷ்ணன்.

சைபர் தடயவியல் நிபுணர்கள் இதுபோன்ற ஆடியோக்களை வேகமாக ஓடவிட்டு, மெதுவாக ஓடவிட்டு, அவற்றின் அலை வடிவங்களைப் பார்த்து, அவற்றில் பின்னணியில் கேட்கும் ஓசைகளை வைத்தும் அது அசலா போலியா என்பதை கண்டுபிடிக்கிறார்கள், என்கிறார் அவர்.

“ஆனால் அதற்கும் மேல் ஒரு நிபுணரின் திறன், அனுபவம் ஆகியவையும் முக்கியம். ஒரு ஆடியோவை ஒரு மென்பொருளில் உள்ளீடு செய்வதாலேயே அது அசலா போலியா என்பது உடனே தெரிந்து விடாது. அதைக் கையாள்பவரின் திறனும் அனுபவமும் மிக முக்கியம். அது சாதாரணமாக எல்லோரிடமும் இருக்காது,” என்கிறார் முரளிகிருஷ்ணன்.

மேலும் பேசிய அவர், இணையத்திலோ, சமூக வலைதளங்களிலோ இதுபோன்ற ஆடியோக்களைக் கேட்க நேர்ந்தால், அவற்றின் உண்மைத்தன்மையை அறிந்து கொள்ளாமல், நம்பவோ பகிரவோ வேண்டாம், என்கிறார் முரளிகிருஷ்ணன்.

பொதுமக்களாக நாம் அவற்றின் உண்மைத்தன்மையை அறிந்துகொள்வதற்கு இரண்டு வழிகள் இருக்கின்றன என்கிறார் அவர்.

ஒன்று அந்த ஆடியோவில் சம்பந்தப்பட்டிருக்கும் நபரே அதற்கான விளக்கத்தையோ மறுப்பையோ தெரிவிக்கும் வரை காத்திருப்பது.

அல்லது, அது மணிப்பூர் போல பதற்றமான சூழலில் இருந்து பகிரப்படுகிறது என்றால், சைபர் வல்லுநர்கள் அவற்றைச் சோதித்து அவற்றின் உண்மைத்தன்மையை வெளியிடும் வரை காத்திருப்பது.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Karthikeyan N

படக்குறிப்பு, கார்த்திகேயன், சைபர் சட்ட வல்லுநர்

சட்டம் என்ன சொல்கிறது?

இதுபோல செயற்கை நுண்ணறிவைப் பயன்படுத்திச் செய்யப்படும் சைபர் குற்றங்கள் பற்றி சட்டம் என்ன சொல்கிறது என்பது பற்றித் தெரிந்துகொள்ள, பிபிசி தமிழ் சைபர் சட்ட வல்லுநரும், சென்னை உயர்நீதிமன்ற வழக்கறிஞருமான கார்த்திகேயனிடம் பேசியது.

முதலாவதாக, பிரபலங்களின் தோற்றம் மற்றும் குரலைப் போலி செய்பவர்கள் அடையாளத் திருட்டில் (identity theft) ஈடுபடுகிறார்கள் என்றார் கார்த்திகேயன். இதற்கு தகவல் தொழில்நுட்பச் சட்டத்தின் 66(சி) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.

அதேபோல, பிரபலங்களின் குரல் அல்லது தோற்றத்தைப் பயன்படுத்தி ஒரு செய்தியையோ கருத்தையோ பகிரும் போது அது ஆள் மாறாட்டம் (impersonation) எனும் குற்றத்தின் கீழ் வரும் என்கிறார் அவர். இதற்கு தகவல் தொழில்நுட்பச் சட்டத்தின் 66(டி) பிரிவின் படி மூன்றாண்டுகள் சிறைத் தண்டனை விதிக்கப்படலாம் என்கிறார்.

மேலும் அவர் கூறுகையில், “செயற்கை நுண்ணறிவு செயலிகளைப் பயன்படுத்தி படங்கள், ஆடியோ, வீடியோ போன்றவற்றை உருவாக்கி இன்ஸ்டாகிராம், யூ டியூப் போன்ற சமூக வலைதளங்களில் பதிவேற்றுவதற்கு இணையம் தேவைப்படுகிறது. அந்த இணைய இணைப்பின் ஐ.பி. முகவரியைப் (IP Address) பயன்படுத்தி அதை பதிவேற்றியவர் எப்பகுதியில் வசிக்கிறார் என்பதைக் கண்டுபிடித்துவிடலாம்,” என்றார்.

இதுபோன்ற போலி ஆடியோ, வீடியோக்களை உருவாக்குபவர்கள் மட்டுமல்ல, அவற்றைப் உருவாக்கத் தூண்டுபவர்களுக்கும், பகிர்பவர்களுக்கும், காட்டுபவர்களுக்கும் இச்சட்டத்தின் பிரிவுகளின் கீழ் தண்டனைகள் உண்டு என்கிறார் கார்த்திகேயன்.

“இதுபோன்ற செயல்களில் ஈடுபடுபவர்கள் இச்சட்டத்தைப் பற்றித் தெரியாது என்று சொல்வது அவர்களைக் குற்றமற்றவர்களாக்காது,” என்கிறார் அவர்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Getty Images

படக்குறிப்பு, செயற்கை நுண்ணறிவு தொழில்நுட்பத்தை கண்டுபிடிக்கும் உபகரணங்கள் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும்

'போலிகளை கண்டுபிடிக்க கட்டமைப்பை வலுப்படுத்த வேண்டும்'

இதுபோன்ற போலி ஆடியோ வீடியோக்களைக் கண்டுபிடிக்கத் தேவையான கட்டமைப்பை மாநில அளவில் உருவாக்க வேண்டும் என்கிறார் கார்த்திகேயன்.

“இதுபோன்ற குற்றங்களுக்கான தண்டனைகள் சட்டத்தில் உண்டு. ஆனால் போலி ஆடியோ, வீடியோக்களைக் கண்டுபிடிக்கும் கட்டமைப்பு இன்னும் வலுப்படுத்த வேண்டும் என்கிறார் அவர்.

செயற்கை நுண்ணறிவு தொழில்நுட்பம் வெகு துரிதமாக மேம்பட்டு வருகிறது. அதேபோல அவற்றைக் கண்டுபிடிக்கும் உபகரணங்கள் — வன்பொருள் மற்றும் மென்பொருள் ஆகியவையும் மேம்படுத்தப்பட்டுப் பரவலாக்கப்பட வேண்டும் என்கிறார் அவர்.

உதாரணத்திற்கு, தமிழகத்தில் எங்கு நடக்கும் சைபர் குற்றங்களுக்கும் இப்போது சென்னையிலுள்ள சைபர் தடயவியல் ஆய்வகத்தைத் தான் சார்ந்திருக்க வேண்டியிருக்கிறது. இதனால் நேரம் விரயமாகிறது, என்கிறார்.

இந்தியாவில் தெலங்கானா மாநிலத்தில் உயர் ரக சைபர் தடயவியல் உபகரணங்கள் உள்ளதாகக் கூறுகிறார் கார்த்திகேயன்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Vinod Arumugam

படக்குறிப்பு, வினோத் ஆறுமுகம், சைபர் சமூக ஆர்வலர்

‘இந்தத் தொழில்நுட்பம் ஒரு கத்தி போன்றது’

செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் நெறிமுறை மற்றும் தார்மீகக் கோணங்களைப் பற்றிப் பேசிய சைபர் சமூக ஆர்வலரான வினோத் ஆறுமுகம், இத்தொழில்நுட்பம் ஒரு கத்தி போன்றது, அதை நன்மைக்கும் பயன்படுத்தலாம், ஆனால் இதுபற்றிச் சரியான விழிப்புணர்வு இல்லையென்றால், அது அபாயகரமாக முடிந்துவிடும் என்கிறார்.

அவர் கூறுகையில், இதுபோன்ற செயற்கை நுண்ணறிவு தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம் என்கிறார்.

“உதாரணத்திற்கு, ஒரு திரைப்படத்தில், செயற்கை நுண்ணறிவு தொழில்நுட்பம், டீப்ஃபேக் (deepfake) போன்றவறைப் பயன்படுத்தி, எம்.ஜி.ஆர். நடனமாடுவது போலக் காட்சிப்படுத்தலாம், ஒரு பாடலை சிவாஜி கணேசன் பாடினால் எப்படியிருக்கும் என்று செய்து பார்க்கலாம், அல்லது ஒரு புத்தகத்தை வாசிக்கும் ஆடியோ பதிவை, வேறொரு பிரபலத்தின் குரலில் உருவாக்கலாம்,” என்கிறார்.

ஆனால், முக்கியமாக இவற்றுக்குச் அப்பிரபலங்களிடமோ, அவர்களுக்குச் சம்பந்தப்பட்டச் சட்டரீதியான பிரதிநிதியிடமோ சரியான அனுமதி பெற்றே செய்யவேண்டும் என்கிறார்.

“உதாரணத்திற்கு, செயற்கை நுண்ணறிவு தொழில்நுட்பம் மூலம் பிரதமர் மோதியின் குரலில் பிரபலமான பாடல்களை உருவாக்கி சிலர் பகிர்ந்து வருகின்றனர். இது சட்டப்படி குற்றம். அந்நபரிடம் அனுமதி வாங்காமல் இப்படிச் செய்யக்கூடாது,” என்கிறார் அவர்.

இது பொழுதுபோக்குக்காகச் செய்யப்பட்டிருந்தாலும் குற்றம் தான் என்கிறார் வினோத்.

செயற்கை நுண்ணறிவு, சைபர் குற்றங்கள்

பட மூலாதாரம், Getty Images

படக்குறிப்பு, 'AI தொழில்நுட்பக் கருவிகளை கேளிக்கைக்காகவும் பொழுதுபோக்குக்காகவும் சரியான முறையில் பயன்படுத்தலாம்'

‘விதிமுறைகளும் விழிப்புணர்வும் தேவை’

இதுபோன்ற செயற்கை நுண்ணறிவு தொழில்நுட்பச் செயலிகள் இன்று மக்களிடம் பரவலாகச் சென்று சேர்ந்து இருக்கிறது. ஆனால் அவற்றைப் பயன்படுத்துவதற்கான விதிமுறைகளும், சட்டப்பூர்வமானப் பயன்பாட்டுக் கையேடும் உருவாக்கப்படவில்லை, அது மக்களுக்கும் எடுத்துச் சொல்லப்படவில்லை என்கிறார் வினோத்.

இதனால் பல இளைஞர்கள் இதுபற்றிய விழிப்புணர்வு இல்லாமலேயே இதுபோன்ற செயல்களில் ஈடுபட்டு, வழக்குகளில் சிக்கி, வாழ்க்கையைத் தொலைக்கும் சாத்தியமும் உண்டு என்கிறார்.

“அரசங்கமும், ஊடங்களும் செயற்கை நுண்ணறிவு தொழில்நுட்பம், deepfake, போன்றவற்றை எப்படிப் பாதுகாப்பாக, சட்ட வரையறைக்குட்பட்டுப் பயன்படுத்துவது என்பது பற்றிப் பொதுமக்களுக்கு விழிப்புணர்வு வழங்க வேண்டும்,” என்கிறார் வினோத்.

(சமூக ஊடகங்களில் பிபிசி தமிழ் ஃபேஸ்புக், இன்ஸ்டாகிராம், எக்ஸ் (டிவிட்டர்) மற்றும் யூட்யூப் பக்கங்கள் மூலம் எங்களுடன் இணைந்திருங்கள்.)