You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
ஆபாச படமா? ஸ்கேன் செய்து முறையிடும் ஆப்பிளின் புதிய தொழில்நுட்பம் - தனியுரிமை பிரச்சனைகளை சுட்டிக் காட்டும் நிபுணர்கள்
- எழுதியவர், ஜேம்ஸ் க்ளேடன்
- பதவி, வட அமெரிக்க தொழில்நுட்ப செய்தியாளர்
அமெரிக்க வாடிக்கையாளர்களின் எலெக்ட்ரானிக் சாதனங்களில் குழந்தைகள் தொடர்பான பாலியல் படங்கள் போன்ற விவரங்களை (சிஎஸ்ஏஎம்) கண்டுபிடிக்கும் வகையில் ஓர் அமைப்பு உருவாக்கப்பட்டிருப்பது தொடர்பாக ஆப்பிள் அறிவித்துள்ளது.
ஒரு படம் ஆப்பிள் நிறுவனத்தின் iCloud தொகுப்பில் சேமிக்கப்படுவதற்கு முன்பு, இந்த புதிய தொழில்நுட்பம் ஏற்கனவே குழந்தைகள் தொடர்பான பாலியல் விவரங்களாக அறிவிக்கப்பட்டவைகளோடு ஒப்பிட்டு தேடும்.
பொருத்தங்கள் கண்டுபிடிக்கப்பட்டால் மனித ஆய்வுக்கு உட்படுத்தப்படும். பிறகு பயனரைக் குறித்து சட்ட அமைப்புகளிடம் முறையாக தெரிவிக்கப்படும் என ஆப்பிள் கூறியுள்ளது.
இந்த தொழில் நுட்பங்களால் சில தனியுரிமைப் பிரச்சனைகள் எழ வாய்ப்புள்ளது என கூறப்படுகிறது. இத்தொழில்நுட்பம், தடைசெய்யப்பட்ட உள்ளடக்கம் அல்லது அரசியல் பேச்சுக்காக தொலைபேசிகளை ஸ்கேன் செய்ய பயன்படுத்தப்படலாம் என்கிற கவலை எழுந்துள்ளது.
இந்த தொழில்நுட்பத்தை சர்வாதிகார அரசுகள், தன் குடிமக்களை வேவு பார்க்க பயன்படுத்தலாம் என வல்லுநர்கள் தங்கள் கவலையை வெளிப்படுத்தியுள்ளனர்.
ஆப்பிள் iOS மற்றும் iPadOS இன் புதிய பதிப்புகள் - இந்த ஆண்டின் பிற்பகுதியில் வெளியிடப்பட உள்ளன. அதில் "பயனர்களின் தனியுரிமைக்காக வடிவமைக்கும்போது, குழந்தைகள் தொடர்பான பாலியல் படங்கள் போன்ற விவரங்கள் ஆன்லைனில் பரவுவதைக் கட்டுப்படுத்த உதவும் கிரிப்டோகிராஃபியின் புதிய பயன்பாடுகள்" இருக்கும் என ஆப்பிள் கூறியது.
காணாமல் போன மற்றும் துன்புறுத்தலுக்கு ஆளான குழந்தைகளுக்கான அமெரிக்க தேசிய மையம் (NCMEC) மற்றும் பிற குழந்தைகள் பாதுகாப்பு அமைப்புகளால் தொகுக்கப்பட்ட குழந்தை பாலியல் தொடர்பான படங்களின் தரவுத்தளத்துடன் படங்களை ஒப்பிட்டு இந்த புதிய தொழில்நுட்ப அமைப்பு செயல்படுகிறது.
அந்த படங்கள் எண் குறியீடுகளாகவும், ஹாஷ்களாகவும் மொழிபெயர்க்கப்பட்டுள்ளன. அதை ஆப்பிள் சாதனத்தில் இருக்கும் படங்களோடு ஒப்பிடலாம்.
இந்த தொழில்நுட்பம் திருத்தப்பட்ட ஆனால் அசல் படங்களின் ஒத்த பதிப்புகளையும் கண்டுபிடிக்கும் என ஆப்பிள் கூறுகிறது.
"ஒரு படம் iCloud தொகுப்பில் சேமிக்கப்படுவதற்கு முன்பு, குழந்தைகள் தொடர்பான பாலியல் படங்கள் போன்ற விவரங்களோடு ஒரு ஒப்பீடு செயல்முறை நடத்தப்படுகிறது" என ஆப்பிள் கூறியுள்ளது.
இந்த அமைப்பின் துல்லியத்தன்மை பிரமாதமாக உள்ளது. ஒரு ஆண்டில் ஒரு ட்ரில்லியன் முறையில் ஒரு முறைக்கும் குறைவாகவே தவறு நேர்கிறது என கூறியுள்ளது ஆப்பிள்.
இத்தொழில்நுட்பம் குறிப்பிடும் பிரச்சனைகள் ஒவ்வொன்றையும் மனிதர்கள் மறுபரிசீலனை செய்து உறுதிப்படுத்துகிறார்கள். அதன் பிறகு தான் பயனரின் கணக்கை முடக்குவது மற்றும் சட்ட அமைப்புகளுக்கு புகாரளிப்பது போன்ற நடவடிக்கைகள் எடுக்கப்படுகின்றன.
தற்போது நடைமுறையில் உள்ள தொழில்நுட்பங்களை விட, புதிய தொழில்நுட்பம் குறிப்பிடத்தக்க தனியுரிமை நன்மைகளை வழங்குகிறது என ஆப்பிள் நிறுவனம் கூறுகிறது.
ஒரு பயனரின் iCloud கணக்கில் குழந்தைகள் தொடர்பான பாலியல் படங்கள் போன்ற விவரங்கள் இருந்தால் மட்டுமே இத்தொழில்நுட்பம் பயனர்களைக் குறித்து அறிந்து கொள்ளத் தொடங்குகிறது.
எனினும் சில தனியுரிமை நிபுணர்கள் இத்தொழில்நுட்பம் தொடர்பாக தங்கள் கவலைகளை தெரிவித்துள்ளனர்.
"ஆப்பிளின் நீண்டகால திட்டங்கள் என்னவாக இருந்தாலும், அவர்கள் மிகத் தெளிவான சமிக்ஞையை அனுப்பியுள்ளனர். தடைசெய்யப்பட்ட உள்ளடக்கத்திற்காக பயனர்களின் தொலைபேசிகளை ஸ்கேன் செய்யும் அமைப்புகளை உருவாக்குவது பாதுகாப்பானது என ஆப்பிள் கருதுகிறது" என்று ஜான்ஸ் ஹாப்கின்ஸ் பல்கலைக்கழக பாதுகாப்பு ஆய்வாளர் மேத்யூ கிரீன் தெரிவித்துள்ளார்.
இந்த விஷயத்தில் அவர்கள் சரியானவர்களாகவோ அல்லது தவறானவர்களாவோ இருப்பதை யாரும் பெரிதாக பொருட்படுத்தமாட்டார்கள். ஆனால் அரசாங்கங்கள் அனைத்து நிறுவனங்களையும் இதை செய்யுமாறு அழுத்தம் கொடுக்கும் என்கிறர் மேக்யூ கிரீன்.
பிற செய்திகள்:
சமூக ஊடகங்களில் பிபிசி தமிழ் :
- ஃபேஸ்புக் : பிபிசி தமிழ் ஃபேஸ்புக்
- டிவிட்டர் : பிபிசி தமிழ் ட்விட்டர்
- இன்ஸ்டாகிராம் : பிபிசி தமிழ் இன்ஸ்டாகிராம்
- யு டியூப் : பிபிசி தமிழ் யு டியூப்