आर्टिफ़िशियल इंटेलिजेंस से बनी तस्वीरें किस तरह बच्चों के यौन शोषण का ख़तरा बढ़ा रही हैं?

बाल यौन शोषण

बच्चों के लिए काम करने वाला एक अंतरराष्ट्रीय संगठन इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) जल्द ही ब्रिटेन के प्रधानमंत्री ऋषि सुनक से मिलेगा.

संगठन का कहना है कि आर्टिफ़िशियल इंटेलिजेंस के ज़रिये बच्चों की अश्लील तस्वीर बना कर उनके यौन शोषण के मामले बढ़ रहे हैं.

संगठन इसे ख़त्म करने में सरकार से मदद लेना चाहता है.

इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) इंटरनेट से आपत्तिजनक कॉन्टेंट को हटाता है. इसका कहना है कि अब इंटरनेट पर आर्टिफिशियल इंटेलिजेंस (एआई) से तैयार तस्वीरों की बाढ़ आ रही है.

पिछले महीने इंटरनेट वॉच फाउंडेशन ने पहली बार इन तस्वीरों पर नज़र रखना शुरू किया.

संस्था ने पाया कि इस काम में लगे लोग आर्टिफिशियल इंटेलिजेंस से बनी तस्वीरों की गैलरी बना कर इंटरनेट पर शेयर कर रहे हैं.

इंटरनेट वॉच फाउंडेशन की सीईओ सुज़ी हरग्रीव्स कहती हैं, "हमें अभी तो बहुत ज़्यादा ऐसी तस्वीरें नहीं दिख रही हैं लेकिन इस बात की प्रबल आशंका है कि इस तरह के अपराधी बहुत बड़ी संख्या में बच्चों के यौन शोषण से जुड़ी तस्वीरें बना कर इंटरनेट पर डाल सकते हैं.’’

बाल यौन शोषण

इमेज स्रोत, Getty Images

एक तरह का नया ख़तरा

छोड़कर पॉडकास्ट आगे बढ़ें
कहानी ज़िंदगी की

मशहूर हस्तियों की कहानी पूरी तसल्ली और इत्मीनान से इरफ़ान के साथ.

एपिसोड

समाप्त

बीबीसी को इस तरह की तकनीक से बनाई गई कुछ तस्वीरें दिखाई गईं. इनमें कुछ ऐसी तस्वीरें थीं, जिनमें पांच साल की बच्चियों को सेक्शुअल-पोज़िशन में दिखाया गया है.

इंटरनेट वॉच फाउंडेशन दुनिया के उन तीन चैरिटी संगठनों में से एक है, जिसे इंटरनेट पर बच्चों के यौन शोषण से जुड़े कॉन्टेंट को मॉनिटर करने का लाइसेंस मिला हुआ है.

इंटरनेट वॉच फाउंडेशन ने आर्टिफिशियल इंटेलिजेंस से जुड़ी तस्वीरों को 24 मई से तलाशना शुरू किया था और 30 जून तक विश्लेषकों ने 29 वेबसाइटों को खंगाल लिया था.

इस दौरान उसने ऐसे सात पेज तलाश लिए थे जो आर्टिफ़िशियल इंटेलिजेंस से बनाई गई तस्वीरों की गैलरी शेयर कर रहा था.

इंटरनेट वॉच फाउंडेशन ने ये तो ठीक ठीक नहीं बताया कि इनमें कितनी ऐसी तस्वीरें थीं, लेकिन ये ज़रूर बताया कि ऐसी दर्जनों तस्वीरें अवैध वेबसाइटें शेयर करती हैं.

एक्सपर्ट्स इन तस्वीरों में कुछ को ए कैटिगरी में रखते हैं. ये वैसी तस्वीरें होती हैं, जिनमें साफ़ तौर पर बच्चों के साथ सेक्स करते दिखाया जाता है.

लगभग हर देश में बच्चों के यौन शोषण की तस्वीरें बनाना ग़ैर-क़ानूनी है.

बाल यौन शोषण

इमेज स्रोत, Getty Images

इंटरनेट वॉच फ़ाउंडेशन की कोशिश

हरग्रीव्स कहती हैं, ’’हमारे पास अभी इस उभरती टेक्नॉलजी से आगे निकलने का मौक़ा है. लेकिन क़ानून को इस पहलू पर ध्यान देना होगा. हमारे क़ानून को इस नई चुनौती से निपटने के लिए तैयार होना होगा.’’

जून में ब्रिटेन के प्रधानमंत्री सुनक ने एलान किया था कि उनका देश आर्टिफिशियल इंटेलिजेंस सुरक्षा का दुनिया का पहला सम्मेलन करेगा.

ब्रिटिश सरकार ने वादा किया था कि वह इस मंच पर दुनिया भर के विशेषज्ञों और वैश्विक नेताओं को बुलाएंगे ताकि इस बात पर विचार-विमर्श किया जा सके कि किस तरह से मिलजुल कर इस समस्या से निपटा जाए.

इंटरनेट वॉच फाउंडेशन के विश्लेषकों ने यौन शोषण से जुड़ी इस तरह की ‘सेल्फ जेनरेटेड’ तस्वीरों को लेकर एक ट्रेंड देखा है. इसमें बच्चे को मजबूर कर अपनी तस्वीरें उन लोगों तक भेजने का दबाव डाला जाता था जो उनका दुरुपयोग करते हैं.

इंटरनेट वॉच फाउंडेशन इस बात को लेकर चिंतित है कि आर्टिफ़िशियल इंटेलिजेंस का ट्रेंड बढ़ता ही जा रहा है. हालांकि इनकी तादाद अभी कम है.

बाल यौन शोषण

इमेज स्रोत, Getty Images

इमेज कैप्शन, सांकेतिक तस्वीर

आर्टिफिशियल इंटेलिजेंस का कैसे इस्तेमाल हो रहा है?

2022 में इंटरनेट वॉच फाउंडेशन ने लॉग कर कम से कम ढाई लाख वैसे वेब पेज को हटाने की कोशिश थी, जिनमें बच्चों के यौन शोषण से जुड़ी तस्वीरें थीं.

विश्लेषकों का कहना है बच्चों का शिकार करने वाले ऐसे अपराधियों की बातचीत तक रिकॉर्ड किया गया था जिसमें ये बताया जा रहा था कि बच्चों की ज्यादा जीवंत तस्वीरें कैसे बनाई जाए.

संगठन ने पाया कि ये लोग इस बात पर विचार कर रहे थे कि तस्वीरें बनाने में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कैसे किया जाए.

कहां से ओपन-सोर्स आर्टिफिशयल इंटेलिजेंस मॉडल्स डाउनलोड किया और सेफ्टी बैरियर को कैसे हटाया जाए.

ज्यादातर एआई जेनरेटरों में यूजर्स के लिए कॉन्टेंट बनाने को लेकर नियम होते हैं. नियम कहते हैं कि प्रतिबंधित शब्दों या वाक्याशों का इ कॉन्टेंट नहीं बनाया जा सकता है.

लेकिन ओपन सोर्स टूल्स मुफ्त में डाउनलोड किए जा सकते हैं. यूज़र चाहे तो हेरफेर कर ऐसी तस्वीरें बना सकता है जो नियमों को विपरीत हों.

सबसे लोकप्रिय सोर्स स्टेबल डिफ्यूजन है. जर्मन एआई एकेडेमिक्स की एक टीम ने अगस्त 2022 में इसे ऑनलाइन रिलीज किया था.

बाल यौन शोषण

इमेज स्रोत, Getty Images

इमेज कैप्शन, सांकेतिक तस्वीर

पूरी दुनिया के बच्चों के सामने एक नया डर

बीबीसी ने एक ऐसे एआई इमेज मेकर से बात की जो किशोर उम्र से छोटी बच्चियों की सेक्शुलाइज्ड तस्वीरें बनाने के लिए स्टेबल डिफ्यूजन का इस्तेमाल करता है.

इस जापानी शख्स ने दावा किया कि उसकी बनाई हुई तस्वीरें ‘क्यूट’ और सही हैं. उसका कहना था कि पहली बार इतिहास में बच्चों को यौन शोषण किए बगैर उनकी तस्वीरें बनाई जा सकती हैं.

हालांकि विशेषेज्ञों का कहना है कि इन तस्वीरों के गंभीर ख़तरे हो सकते हैं.

अमेरिका की माशर्ल्स सेवाओं के लिए यौन अपराध और बच्चों के यौन शोषण को रोकने वाले विभाग में काम करने वाले डॉ. माइकल बॉर्क कहते हैं, ‘’ मुझे इस बात को लेकर कोई संदेह नहीं है कि एआई से बनाई तस्वीरों से पूरी दुनिया में बच्चों के लिए एक नया ख़तरा पैदा हो गया है.’’

स्टेबल डिफ्यूजन के लीड डिवेलपर्स में से एक प्रोफेसर ब्योर्न ओमर ने ओपन सोर्स का बचाव किया है.

उन्होने बीबीसी से कहा कि इसकी बदौलत सैकड़ों एकेडेमिक रिसर्च प्रोजेक्ट पूरे हो पाए. इससे कई कारोबार भी पैदा हुए हैं.

बाल यौन शोषण
इमेज कैप्शन, प्रोफेस ब्योर्न ओमर

ओमर कहते हैं इस क्षेत्र में रिसर्च और नई चीजें डिवेलप करने के काम को नहीं रोका जाना चाहिए.

उन्होंने कहा,‘’हमें इस सच का सामना करना होगा कि इसका (एआई) पूरी दुनिया में विकास हो रहा है. यहां रोक दिए जाने से उन देशों में इसका विकास नहीं रुक जाएगा, जहां लोकतंत्र नहीं है. हमें इसके ज़रिये हो रही बुरी गतिविधियों को रोकने की कोशिश करनी चाहिए.’’.

मॉडल प्री लॉन्च को डिवेलप करने में पैसा लगाने वाली कंपनी स्टेबिलिटी एआई स्टेबल डिफ्यूजन के नए वर्जन तैयार करने वाली प्रमुख कंपनियों में शुमार है.

कंपनी ने बीबीसी से इस मुद्दे पर बात करने से इनकार कर दिया. लेकिन इससे पहले उसने एक बयान में कहा था कि वो गैरक़ानूनी और अनैतिक काम में एआई के अपने वर्जन के इस्तेमाल पर रोक लगाती है.

ये भी पढ़ें : -

(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर,इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)