You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
आर्टिफ़िशियल इंटेलिजेंस से बनी तस्वीरें किस तरह बच्चों के यौन शोषण का ख़तरा बढ़ा रही हैं?
बच्चों के लिए काम करने वाला एक अंतरराष्ट्रीय संगठन इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) जल्द ही ब्रिटेन के प्रधानमंत्री ऋषि सुनक से मिलेगा.
संगठन का कहना है कि आर्टिफ़िशियल इंटेलिजेंस के ज़रिये बच्चों की अश्लील तस्वीर बना कर उनके यौन शोषण के मामले बढ़ रहे हैं.
संगठन इसे ख़त्म करने में सरकार से मदद लेना चाहता है.
इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) इंटरनेट से आपत्तिजनक कॉन्टेंट को हटाता है. इसका कहना है कि अब इंटरनेट पर आर्टिफिशियल इंटेलिजेंस (एआई) से तैयार तस्वीरों की बाढ़ आ रही है.
पिछले महीने इंटरनेट वॉच फाउंडेशन ने पहली बार इन तस्वीरों पर नज़र रखना शुरू किया.
संस्था ने पाया कि इस काम में लगे लोग आर्टिफिशियल इंटेलिजेंस से बनी तस्वीरों की गैलरी बना कर इंटरनेट पर शेयर कर रहे हैं.
इंटरनेट वॉच फाउंडेशन की सीईओ सुज़ी हरग्रीव्स कहती हैं, "हमें अभी तो बहुत ज़्यादा ऐसी तस्वीरें नहीं दिख रही हैं लेकिन इस बात की प्रबल आशंका है कि इस तरह के अपराधी बहुत बड़ी संख्या में बच्चों के यौन शोषण से जुड़ी तस्वीरें बना कर इंटरनेट पर डाल सकते हैं.’’
एक तरह का नया ख़तरा
बीबीसी को इस तरह की तकनीक से बनाई गई कुछ तस्वीरें दिखाई गईं. इनमें कुछ ऐसी तस्वीरें थीं, जिनमें पांच साल की बच्चियों को सेक्शुअल-पोज़िशन में दिखाया गया है.
इंटरनेट वॉच फाउंडेशन दुनिया के उन तीन चैरिटी संगठनों में से एक है, जिसे इंटरनेट पर बच्चों के यौन शोषण से जुड़े कॉन्टेंट को मॉनिटर करने का लाइसेंस मिला हुआ है.
इंटरनेट वॉच फाउंडेशन ने आर्टिफिशियल इंटेलिजेंस से जुड़ी तस्वीरों को 24 मई से तलाशना शुरू किया था और 30 जून तक विश्लेषकों ने 29 वेबसाइटों को खंगाल लिया था.
इस दौरान उसने ऐसे सात पेज तलाश लिए थे जो आर्टिफ़िशियल इंटेलिजेंस से बनाई गई तस्वीरों की गैलरी शेयर कर रहा था.
इंटरनेट वॉच फाउंडेशन ने ये तो ठीक ठीक नहीं बताया कि इनमें कितनी ऐसी तस्वीरें थीं, लेकिन ये ज़रूर बताया कि ऐसी दर्जनों तस्वीरें अवैध वेबसाइटें शेयर करती हैं.
एक्सपर्ट्स इन तस्वीरों में कुछ को ए कैटिगरी में रखते हैं. ये वैसी तस्वीरें होती हैं, जिनमें साफ़ तौर पर बच्चों के साथ सेक्स करते दिखाया जाता है.
लगभग हर देश में बच्चों के यौन शोषण की तस्वीरें बनाना ग़ैर-क़ानूनी है.
इंटरनेट वॉच फ़ाउंडेशन की कोशिश
हरग्रीव्स कहती हैं, ’’हमारे पास अभी इस उभरती टेक्नॉलजी से आगे निकलने का मौक़ा है. लेकिन क़ानून को इस पहलू पर ध्यान देना होगा. हमारे क़ानून को इस नई चुनौती से निपटने के लिए तैयार होना होगा.’’
जून में ब्रिटेन के प्रधानमंत्री सुनक ने एलान किया था कि उनका देश आर्टिफिशियल इंटेलिजेंस सुरक्षा का दुनिया का पहला सम्मेलन करेगा.
ब्रिटिश सरकार ने वादा किया था कि वह इस मंच पर दुनिया भर के विशेषज्ञों और वैश्विक नेताओं को बुलाएंगे ताकि इस बात पर विचार-विमर्श किया जा सके कि किस तरह से मिलजुल कर इस समस्या से निपटा जाए.
इंटरनेट वॉच फाउंडेशन के विश्लेषकों ने यौन शोषण से जुड़ी इस तरह की ‘सेल्फ जेनरेटेड’ तस्वीरों को लेकर एक ट्रेंड देखा है. इसमें बच्चे को मजबूर कर अपनी तस्वीरें उन लोगों तक भेजने का दबाव डाला जाता था जो उनका दुरुपयोग करते हैं.
इंटरनेट वॉच फाउंडेशन इस बात को लेकर चिंतित है कि आर्टिफ़िशियल इंटेलिजेंस का ट्रेंड बढ़ता ही जा रहा है. हालांकि इनकी तादाद अभी कम है.
आर्टिफिशियल इंटेलिजेंस का कैसे इस्तेमाल हो रहा है?
2022 में इंटरनेट वॉच फाउंडेशन ने लॉग कर कम से कम ढाई लाख वैसे वेब पेज को हटाने की कोशिश थी, जिनमें बच्चों के यौन शोषण से जुड़ी तस्वीरें थीं.
विश्लेषकों का कहना है बच्चों का शिकार करने वाले ऐसे अपराधियों की बातचीत तक रिकॉर्ड किया गया था जिसमें ये बताया जा रहा था कि बच्चों की ज्यादा जीवंत तस्वीरें कैसे बनाई जाए.
संगठन ने पाया कि ये लोग इस बात पर विचार कर रहे थे कि तस्वीरें बनाने में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कैसे किया जाए.
कहां से ओपन-सोर्स आर्टिफिशयल इंटेलिजेंस मॉडल्स डाउनलोड किया और सेफ्टी बैरियर को कैसे हटाया जाए.
ज्यादातर एआई जेनरेटरों में यूजर्स के लिए कॉन्टेंट बनाने को लेकर नियम होते हैं. नियम कहते हैं कि प्रतिबंधित शब्दों या वाक्याशों का इ कॉन्टेंट नहीं बनाया जा सकता है.
लेकिन ओपन सोर्स टूल्स मुफ्त में डाउनलोड किए जा सकते हैं. यूज़र चाहे तो हेरफेर कर ऐसी तस्वीरें बना सकता है जो नियमों को विपरीत हों.
सबसे लोकप्रिय सोर्स स्टेबल डिफ्यूजन है. जर्मन एआई एकेडेमिक्स की एक टीम ने अगस्त 2022 में इसे ऑनलाइन रिलीज किया था.
पूरी दुनिया के बच्चों के सामने एक नया डर
बीबीसी ने एक ऐसे एआई इमेज मेकर से बात की जो किशोर उम्र से छोटी बच्चियों की सेक्शुलाइज्ड तस्वीरें बनाने के लिए स्टेबल डिफ्यूजन का इस्तेमाल करता है.
इस जापानी शख्स ने दावा किया कि उसकी बनाई हुई तस्वीरें ‘क्यूट’ और सही हैं. उसका कहना था कि पहली बार इतिहास में बच्चों को यौन शोषण किए बगैर उनकी तस्वीरें बनाई जा सकती हैं.
हालांकि विशेषेज्ञों का कहना है कि इन तस्वीरों के गंभीर ख़तरे हो सकते हैं.
अमेरिका की माशर्ल्स सेवाओं के लिए यौन अपराध और बच्चों के यौन शोषण को रोकने वाले विभाग में काम करने वाले डॉ. माइकल बॉर्क कहते हैं, ‘’ मुझे इस बात को लेकर कोई संदेह नहीं है कि एआई से बनाई तस्वीरों से पूरी दुनिया में बच्चों के लिए एक नया ख़तरा पैदा हो गया है.’’
स्टेबल डिफ्यूजन के लीड डिवेलपर्स में से एक प्रोफेसर ब्योर्न ओमर ने ओपन सोर्स का बचाव किया है.
उन्होने बीबीसी से कहा कि इसकी बदौलत सैकड़ों एकेडेमिक रिसर्च प्रोजेक्ट पूरे हो पाए. इससे कई कारोबार भी पैदा हुए हैं.
ओमर कहते हैं इस क्षेत्र में रिसर्च और नई चीजें डिवेलप करने के काम को नहीं रोका जाना चाहिए.
उन्होंने कहा,‘’हमें इस सच का सामना करना होगा कि इसका (एआई) पूरी दुनिया में विकास हो रहा है. यहां रोक दिए जाने से उन देशों में इसका विकास नहीं रुक जाएगा, जहां लोकतंत्र नहीं है. हमें इसके ज़रिये हो रही बुरी गतिविधियों को रोकने की कोशिश करनी चाहिए.’’.
मॉडल प्री लॉन्च को डिवेलप करने में पैसा लगाने वाली कंपनी स्टेबिलिटी एआई स्टेबल डिफ्यूजन के नए वर्जन तैयार करने वाली प्रमुख कंपनियों में शुमार है.
कंपनी ने बीबीसी से इस मुद्दे पर बात करने से इनकार कर दिया. लेकिन इससे पहले उसने एक बयान में कहा था कि वो गैरक़ानूनी और अनैतिक काम में एआई के अपने वर्जन के इस्तेमाल पर रोक लगाती है.
ये भी पढ़ें : -
(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर,इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)