आर्टिफ़िशियल इंटेलिजेंस से बनी तस्वीरें किस तरह बच्चों के यौन शोषण का ख़तरा बढ़ा रही हैं?

बच्चों के लिए काम करने वाला एक अंतरराष्ट्रीय संगठन इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) जल्द ही ब्रिटेन के प्रधानमंत्री ऋषि सुनक से मिलेगा.
संगठन का कहना है कि आर्टिफ़िशियल इंटेलिजेंस के ज़रिये बच्चों की अश्लील तस्वीर बना कर उनके यौन शोषण के मामले बढ़ रहे हैं.
संगठन इसे ख़त्म करने में सरकार से मदद लेना चाहता है.
इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) इंटरनेट से आपत्तिजनक कॉन्टेंट को हटाता है. इसका कहना है कि अब इंटरनेट पर आर्टिफिशियल इंटेलिजेंस (एआई) से तैयार तस्वीरों की बाढ़ आ रही है.
पिछले महीने इंटरनेट वॉच फाउंडेशन ने पहली बार इन तस्वीरों पर नज़र रखना शुरू किया.
संस्था ने पाया कि इस काम में लगे लोग आर्टिफिशियल इंटेलिजेंस से बनी तस्वीरों की गैलरी बना कर इंटरनेट पर शेयर कर रहे हैं.
इंटरनेट वॉच फाउंडेशन की सीईओ सुज़ी हरग्रीव्स कहती हैं, "हमें अभी तो बहुत ज़्यादा ऐसी तस्वीरें नहीं दिख रही हैं लेकिन इस बात की प्रबल आशंका है कि इस तरह के अपराधी बहुत बड़ी संख्या में बच्चों के यौन शोषण से जुड़ी तस्वीरें बना कर इंटरनेट पर डाल सकते हैं.’’

इमेज स्रोत, Getty Images
एक तरह का नया ख़तरा
बीबीसी को इस तरह की तकनीक से बनाई गई कुछ तस्वीरें दिखाई गईं. इनमें कुछ ऐसी तस्वीरें थीं, जिनमें पांच साल की बच्चियों को सेक्शुअल-पोज़िशन में दिखाया गया है.
इंटरनेट वॉच फाउंडेशन दुनिया के उन तीन चैरिटी संगठनों में से एक है, जिसे इंटरनेट पर बच्चों के यौन शोषण से जुड़े कॉन्टेंट को मॉनिटर करने का लाइसेंस मिला हुआ है.
इंटरनेट वॉच फाउंडेशन ने आर्टिफिशियल इंटेलिजेंस से जुड़ी तस्वीरों को 24 मई से तलाशना शुरू किया था और 30 जून तक विश्लेषकों ने 29 वेबसाइटों को खंगाल लिया था.
इस दौरान उसने ऐसे सात पेज तलाश लिए थे जो आर्टिफ़िशियल इंटेलिजेंस से बनाई गई तस्वीरों की गैलरी शेयर कर रहा था.
इंटरनेट वॉच फाउंडेशन ने ये तो ठीक ठीक नहीं बताया कि इनमें कितनी ऐसी तस्वीरें थीं, लेकिन ये ज़रूर बताया कि ऐसी दर्जनों तस्वीरें अवैध वेबसाइटें शेयर करती हैं.
एक्सपर्ट्स इन तस्वीरों में कुछ को ए कैटिगरी में रखते हैं. ये वैसी तस्वीरें होती हैं, जिनमें साफ़ तौर पर बच्चों के साथ सेक्स करते दिखाया जाता है.
लगभग हर देश में बच्चों के यौन शोषण की तस्वीरें बनाना ग़ैर-क़ानूनी है.

इमेज स्रोत, Getty Images
इंटरनेट वॉच फ़ाउंडेशन की कोशिश
हरग्रीव्स कहती हैं, ’’हमारे पास अभी इस उभरती टेक्नॉलजी से आगे निकलने का मौक़ा है. लेकिन क़ानून को इस पहलू पर ध्यान देना होगा. हमारे क़ानून को इस नई चुनौती से निपटने के लिए तैयार होना होगा.’’
जून में ब्रिटेन के प्रधानमंत्री सुनक ने एलान किया था कि उनका देश आर्टिफिशियल इंटेलिजेंस सुरक्षा का दुनिया का पहला सम्मेलन करेगा.
ब्रिटिश सरकार ने वादा किया था कि वह इस मंच पर दुनिया भर के विशेषज्ञों और वैश्विक नेताओं को बुलाएंगे ताकि इस बात पर विचार-विमर्श किया जा सके कि किस तरह से मिलजुल कर इस समस्या से निपटा जाए.
इंटरनेट वॉच फाउंडेशन के विश्लेषकों ने यौन शोषण से जुड़ी इस तरह की ‘सेल्फ जेनरेटेड’ तस्वीरों को लेकर एक ट्रेंड देखा है. इसमें बच्चे को मजबूर कर अपनी तस्वीरें उन लोगों तक भेजने का दबाव डाला जाता था जो उनका दुरुपयोग करते हैं.
इंटरनेट वॉच फाउंडेशन इस बात को लेकर चिंतित है कि आर्टिफ़िशियल इंटेलिजेंस का ट्रेंड बढ़ता ही जा रहा है. हालांकि इनकी तादाद अभी कम है.

इमेज स्रोत, Getty Images
आर्टिफिशियल इंटेलिजेंस का कैसे इस्तेमाल हो रहा है?
2022 में इंटरनेट वॉच फाउंडेशन ने लॉग कर कम से कम ढाई लाख वैसे वेब पेज को हटाने की कोशिश थी, जिनमें बच्चों के यौन शोषण से जुड़ी तस्वीरें थीं.
विश्लेषकों का कहना है बच्चों का शिकार करने वाले ऐसे अपराधियों की बातचीत तक रिकॉर्ड किया गया था जिसमें ये बताया जा रहा था कि बच्चों की ज्यादा जीवंत तस्वीरें कैसे बनाई जाए.
संगठन ने पाया कि ये लोग इस बात पर विचार कर रहे थे कि तस्वीरें बनाने में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कैसे किया जाए.
कहां से ओपन-सोर्स आर्टिफिशयल इंटेलिजेंस मॉडल्स डाउनलोड किया और सेफ्टी बैरियर को कैसे हटाया जाए.
ज्यादातर एआई जेनरेटरों में यूजर्स के लिए कॉन्टेंट बनाने को लेकर नियम होते हैं. नियम कहते हैं कि प्रतिबंधित शब्दों या वाक्याशों का इ कॉन्टेंट नहीं बनाया जा सकता है.
लेकिन ओपन सोर्स टूल्स मुफ्त में डाउनलोड किए जा सकते हैं. यूज़र चाहे तो हेरफेर कर ऐसी तस्वीरें बना सकता है जो नियमों को विपरीत हों.
सबसे लोकप्रिय सोर्स स्टेबल डिफ्यूजन है. जर्मन एआई एकेडेमिक्स की एक टीम ने अगस्त 2022 में इसे ऑनलाइन रिलीज किया था.

इमेज स्रोत, Getty Images
पूरी दुनिया के बच्चों के सामने एक नया डर
बीबीसी ने एक ऐसे एआई इमेज मेकर से बात की जो किशोर उम्र से छोटी बच्चियों की सेक्शुलाइज्ड तस्वीरें बनाने के लिए स्टेबल डिफ्यूजन का इस्तेमाल करता है.
इस जापानी शख्स ने दावा किया कि उसकी बनाई हुई तस्वीरें ‘क्यूट’ और सही हैं. उसका कहना था कि पहली बार इतिहास में बच्चों को यौन शोषण किए बगैर उनकी तस्वीरें बनाई जा सकती हैं.
हालांकि विशेषेज्ञों का कहना है कि इन तस्वीरों के गंभीर ख़तरे हो सकते हैं.
अमेरिका की माशर्ल्स सेवाओं के लिए यौन अपराध और बच्चों के यौन शोषण को रोकने वाले विभाग में काम करने वाले डॉ. माइकल बॉर्क कहते हैं, ‘’ मुझे इस बात को लेकर कोई संदेह नहीं है कि एआई से बनाई तस्वीरों से पूरी दुनिया में बच्चों के लिए एक नया ख़तरा पैदा हो गया है.’’
स्टेबल डिफ्यूजन के लीड डिवेलपर्स में से एक प्रोफेसर ब्योर्न ओमर ने ओपन सोर्स का बचाव किया है.
उन्होने बीबीसी से कहा कि इसकी बदौलत सैकड़ों एकेडेमिक रिसर्च प्रोजेक्ट पूरे हो पाए. इससे कई कारोबार भी पैदा हुए हैं.

ओमर कहते हैं इस क्षेत्र में रिसर्च और नई चीजें डिवेलप करने के काम को नहीं रोका जाना चाहिए.
उन्होंने कहा,‘’हमें इस सच का सामना करना होगा कि इसका (एआई) पूरी दुनिया में विकास हो रहा है. यहां रोक दिए जाने से उन देशों में इसका विकास नहीं रुक जाएगा, जहां लोकतंत्र नहीं है. हमें इसके ज़रिये हो रही बुरी गतिविधियों को रोकने की कोशिश करनी चाहिए.’’.
मॉडल प्री लॉन्च को डिवेलप करने में पैसा लगाने वाली कंपनी स्टेबिलिटी एआई स्टेबल डिफ्यूजन के नए वर्जन तैयार करने वाली प्रमुख कंपनियों में शुमार है.
कंपनी ने बीबीसी से इस मुद्दे पर बात करने से इनकार कर दिया. लेकिन इससे पहले उसने एक बयान में कहा था कि वो गैरक़ानूनी और अनैतिक काम में एआई के अपने वर्जन के इस्तेमाल पर रोक लगाती है.
ये भी पढ़ें : -
(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर,इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)












