'ऑनलाइन दादागिरी' से बचने का सबसे अच्छा तरीका

इमेज स्रोत, iStock
- Author, सारा ग्रिफिथ्स
- पदनाम, बीबीसी फ़्यूचर
भारत में इस वक़्त ट्विटर को लेकर हंगामा मचा हुआ है.
ट्विटर ने गाली-गलौज करने, दूसरों को धमकाने-डराने वाले कई अकाउंट्स को बंद कर दिया है. संसदीय समिति ने भी ट्विटर के सीईओ को तलब किया है.
ट्विटर का कहना है कि वो ऑनलाइन दुनिया में नफ़रत फैलाने और अभद्र भाषा का इस्तेमाल करने वालों से सख़्ती से निपट रहा है.
वो अपने यूज़र्स को 'ऑनलाइन बुलिंग' यानी डराने-धमकाए जाने से बचाना चाहता है. दुनिया में बड़ी तादाद में लोग ऐसी 'ऑनलाइन बदतमीज़ी' का शिकार होते हैं.
माना जाता है कि 20 से 33 प्रतिशत तक बच्चे स्कूलों में ऐसी बुलिंग के शिकार होते हैं. इतनी ही संख्या में ही नौकरी पेशा लोग दफ़्तरों में बुलिंग का शिकार होते हैं.
ये बुलिंग या डराना-धमकाना, गाली देना, लोगों के दिमाग़ पर गहरा असर डालते हैं. उनकी भविष्य की ज़िंदगी ख़राब कर सकते हैं.

इमेज स्रोत, Getty Images
आर्टिफ़िशियल इंटेलिजेंस की मदद
रिश्तों पर भी कई बार बुलिंग का बुरा असर पड़ता है. आज ऑनलाइन दुनिया में तो बुलिंग करना आम बात होती जा रही है.
इंस्टाग्राम पर किसी की तस्वीर को लेकर उसका मज़ाक़ उड़ाया जाता है. किसी को जानवर, किसी को मोटा तो किसी को भद्दा कहकर निशाना बनाया जाता है.
इसी तरह ट्विटर-फ़ेसबुक पर लोग आप के विचारों से असहमत हैं तो गाली-गलौज पर उतर आते हैं. ये ऑनलाइन बदमाशी हमारी दिमाग़ी सेहत के लिए बहुत नुक़सानदेह है.
इसके शिकार लोग कई बार ख़ुद को नुक़सान पहुंचा लेते हैं.
ऑनलाइन दुनिया में बुलिंग किस क़दर बढ़ गई है, इसका अंदाज़ा इसी बात से लगा लीजिए कि 59 फ़ीसद अमरीकी किशोर ऑनलाइन दुनिया में बुलिंग का शिकार होते हैं.
अब अगर नई तकनीक से ये चुनौती पैदा हुई है. तो, इसी तकनीक की मदद से इससे निपटने की कोशिश की जा रही है.

इमेज स्रोत, Getty Images
ऑनलाइन दादागीरी
आर्टिफ़िशियल इंटेलिजेंस की मदद से ऑनलाइन दुनिया में ऐसे बदमाशों की पहचान कर के उनसे निपटने की कोशिश हो रही है.
बेल्जियम की घेंट यूनिवर्सिटी के भाषा विशेषज्ञ गिल्स जैकब्स कहते हैं, "किसी इंसान का हर ऑनलाइन पोस्ट को पढ़ पाना कमोबेश नामुमकिन है."
"ऐसे में आर्टिफ़िशियल इंटेलिजेंस की मदद लेना हमारी ज़रूरत बन गई है, ताकि हम ऑनलाइन दादागीरी या ट्रोलिंग से निपट सकें."
जैकब्स की टीम ने एक आर्टिफ़िशियल इंटेलिजेंस मशीन तैयार की है, जो ऑनलाइन पोस्ट में इस्तेमाल कुछ ख़ास शब्दों की मदद से ट्रोल्स की पहचान करती है.
प्रयोग के तौर पर इस आर्टिफ़िशियल इंटेलिजेंस से लैस मशीन को सोशल मीडिया साइट आस्कएफएम के 1 लाख 14 हज़ार पोस्ट पढ़ने को दिया गया.
इस मशीन ने कुछ ख़ास शब्दों की मदद से बुलिंग भरे पोस्ट लिखने वालों की शिनाख़्त कर ली. हालांकि ये व्यंगात्मक कमेंट की पहचान कर पाने में नाकाम रहा.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 1
सोशल मीडिया
ऑनलाइन दुनिया में गाली-गलौज का बेतहाशा इस्तेमाल हो रहा है. लोग बहुत से कारणों से ऐसी भाषा का प्रयोग करते हैं.
कई बार बहुत से भद्दे कमेंट में कोई गाली होती ही नहीं. ऐसे अकाउंट्स की पड़ताल में मुश्किल आती है.
लेकिन कनाडा की मैक्गिल यूनिवर्सिटी के कुछ रिसर्चर ऑनलाइन पोस्ट में ऐसे बदमाशों की तलाश के लिए एल्गोरिद्म को ट्रेनिंग दे रहे हैं.
रिसर्चरों ने रेडिट नाम की सोशल मीडिया वेबसाइट पर महिलाओं, अश्वेतों और ज़्यादा वज़न वाले लोगों को निशाना बनाने वालों की पहचान भी की है.
इसके लिए कुछ ख़ास शब्दों को की-वर्ड बनाकर पोस्ट की पड़ताल करना आर्टिफ़िशियल इंटेलिजेंस को सिखाया गया है.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 2
नफ़रत भरी भाषा
रिसर्च टीम के लीडर हाजी सलीम कहते हैं, "हमारी रिसर्च के नतीजे बताते हैं कि सोशल मीडिया पर नफ़रत भरी भाषा इस्तेमाल करने वालों को रोका जा सकता है."
"इसमें आर्टिफ़िशियल इंटेलिजेंस हमारे काफ़ी काम आ सकता है. जानवर जैसे शब्द का प्रयोग करने वाले बदमाशों तक की पहचान की जा सकती है."
इंस्टाग्राम जैसी कंपनियां तो बाक़ायदा एआई के इस्तेमाल से पोस्ट की निगरानी करने लगी हैं.
2017 में हुआ सर्वे बताता है कि इंस्टाग्राम पर 42 फ़ीसद युवा डराए-धमकाए गए या उनका मज़ाक़ बनाया गया. इनमें ब्रिटेन के मशहूर गिटारवादक ब्रायन मे भी शामिल हैं.
ब्रायन मे ने ऑनलाइन बुलिंग के शिकार बनने के बाद कहा, "मुझे अपने तजुर्बे से उन बच्चों का ख़याल आया जो ऑनलाइन दुनिया में ऐसे लोगों का शिकार बनते हैं."
"जब उनके दोस्त ही उनके दुश्मन बन जाते हैं. इसका क्या असर होता होगा, अब मुझे अच्छे से समझ में आ गया है."
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 3
ऑनलाइन दुनिया में...
अब इंस्टाग्राम अपने यूज़र्स पर आर्टिफ़िशियल इंटेलिजेंस से निगरानी रखता है.
जो लोग डराने-धमकाने या गाली-गलौज वाले पोस्ट करते हैं, उनकी शिनाख़्त कर के उनके खाते बंद किए जाते हैं.
ऐसे लोगों के पोस्ट किए वीडियो और तस्वीरों पर भी नज़र रखी जाती है.
लोग दो तस्वीरों के ज़रिए तुलना कर के जो मज़ाक़ बनाते हैं, उस पर भी इंस्टाग्राम की इंटेलिजेंट मशीन नज़र रखती है.
इंस्टाग्राम का कहना है कि ऑनलाइन दादागीरी के शिकार लोग अक्सर ख़ुद से शिकायत नहीं करते. इसलिए उनके बचाव में ऐसे क़दम उठाना ज़रूरी है.
वैसे डराने-धमकाने का काम सिर्फ़ ऑनलाइन दुनिया में होता हो, ऐसा नहीं है. बहुत सी कंपनियों में हाल में यौन शोषण की घटनाएं सामने आई हैं.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 4
यौन शोषण के शिकार लोगों की मदद
महिलाएं अक्सर भेदभाव की शिकार होती हैं. ऐसे लोगों की मदद भी तकनीक से की जा सकती है.
लंदन की यूनिवर्सिटी कॉलेज में वैज्ञानिकों ने एक रोबोट तैयार किया है, जिसका नाम स्पॉट है.
ये दफ़्तरों में धमकाए जाने या भेदभाव के शिकार लोगों से बात कर के उनके तजुर्बे रिकॉर्ड कर लेता है. इस डेटा का बाद में इस्तेमाल हो सकता है.
यूनिवर्सिटी कॉलेज लंदन की मनोवैज्ञानिक जूलिया शॉ कहती हैं कि स्पॉट के ज़रिए याददाश्त को सबूत के तौर पर जमा किया जाता है.
अमरीका मे विकसित किया गया बोटलर नाम का चैटबॉट तो स्पॉट से भी आगे निकल गया है. ये यौन शोषण के शिकार लोगों की मदद के लिए बनाया गया है.
इस मशीन को अमरीका और कनाडा के 3 लाख अदालती मामलों की जानकारी का डेटा फीड करके बनाया गया है.

इमेज स्रोत, Getty Images
डराने-धमकाने और शोषण
लोगों की बातचीत सुनकर ये मशीन ये पता लगाती है कि क्या वो यौन शोषण के शिकार हैं. फिर उनकी मदद की कोशिश की जाती है.
अब तक ये मशीन 89 फ़ीसद सही नतीजे देने में कामयाब रही है. आर्टिफ़िशियल इंटेलिजेंस लोगों को सिर्फ़ डराने-धमकाने और शोषण से नहीं बचाते.
बल्कि इनका इस्तेमाल लोगों की ज़िंदगियां बचाने में भी किया जा रहा है. दुनिया भर में रोज़ 3 हज़ार से ज़्यादा लोग ख़ुदकुशी करते हैं.
यानी हर 40 सेकेंड में कोई शख़्स अपनी जान ले लेता है.
अगर हम किसी के बर्ताव को देख कर ये पता लगा लें कि वो ख़ुदकुशी की सोच रहा है, तो बहुत से लोगों को बचाया जा सकता है.
हालांकि किसी की दिमाग़ी सेहत की भविष्यवाणी करना बहुत बड़ी चुनौती है. मार्टिना डि सिम्पलीसियो लंदन के इम्पीरियल कॉलेज में मनोविज्ञान की लेक्चरर हैं.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 5
अक़्लमंद मशीनों को ट्रेनिंग
वे कहती हैं, "आर्टिफ़िशियल इंटेलिजेंस से बहुत सारी जानकारी को इकट्ठा कर के उसकी समीक्षा की जा सकती है. ये बहुत से ख़तरों से हमें आगाह कर सकता है."
अमरीका की वांडरबिल्ट यूनिवर्सिटी और फ्लोरिडा स्टेट यूनिवर्सिटी मिलकर इस दिशा में काम कर रही हैं.
यहां पर रिसर्चर अक़्लमंद मशीनों को ट्रेनिंग दे रहे हैं कि वो मरीज़ों की सेहत के रिकॉर्ड की पड़ताल करें और ये बताएं कि कहीं वो ख़ुद को तो नुक़सान नहीं पहुंचाने जा रहे.
अब तक ये मशीन 92 फ़ीसद मामलों की सटीक भविष्यवाणी करती देखी गई है. प्रोफ़ेसर कोलिन वाल्श वांडरबिल्ट यूनिवर्सिटी में हैं.
वे कहते हैं, "हम ऐसे एआई को विकसित कर सकते हैं, जो आंकड़ों की मदद से लोगों में ख़ुदकुशी के ख़यालात का पता लगा सकते हैं."
ऐसे तजुर्बों से दिमाग़ी सेहत का ख़याल रखने वालों की मदद हो सकेगी. मेंटल थेरेपी देने वाले इन अक़्लमंद मशीनों से मरीज़ों की मदद कर सकेंगे.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 6
ख़ुदकुशी के ख़यालात की पड़ताल
अमरीका के पिट्सबर्ग स्थित कार्नेगी मेलन यूनिवर्सिटी में भी ख़ुदकुशी की सोच रहे लोगों की पहचान करने वाली मशीनें बनाई जा रही हैं.
यहां के एल्गोरिद्म ने 91 फ़ीसद मामलों की सटीक पहचान करने में मदद की है.
ये मशीन लोगों के एमआरआई स्कैन की मदद से उनके अंदर उपज रहे ख़ुदकुशी के ख़यालात की पड़ताल करती है.
कार्नेगी मेलन यूनिवर्सिटी के मार्सेल जस्ट कहते हैं कि, 'ख़ुदकुशी के ख़यालात रखने वाले लोग अक्सर शर्मिंदगी के शिकार होते हैं.'
ऐसा नहीं है कि अभी ये सब मशीनें रिसर्च का ही हिस्सा हैं. कई बड़ी तकनीकी कंपनियां इनका इस्तेमाल भी कर रही हैं.
गूगल पर आप ख़ुदकुशी करने से जुड़े सवाल को सर्च करेंगे, तो इसके जवाब में वो आप को किसी एनजीओ का पता बताएगा जहां से आप को मदद मिल सकती है.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 7
एल्गोरिद्म की मदद से
इसी तरह फ़ेसबुक आर्टिफ़िशियल इंटेलिजेंस की मदद से ख़ुदकुशी का संकेत हासिल करने की कोशिश करता है. लोगों की पोस्ट को एल्गोरिद्म की मदद से छांटा जाता है.
फिर अगर किसी की पोस्ट में बार-बार कुछ ऐसे शब्द आते हैं, जो ख़ुदकुशी की सोच रखने का इशारा करते हैं.
तो इस जानकारी से उस शख़्स की मदद की कोशिश की जाती है. पहले तो फ़ेसबुक की अपनी टीम उस इंसान की मदद की कोशिश करती है.
अगर मामला गंभीर होता है तो इसकी ख़बर अधिकारियों तक पहुंचा दी जाती है.
फ़ेसबुक के इस विभाग के प्रमुख डैन म्यूरिएलो कहते हैं, "हम डॉक्टर नहीं हैं. हम किसी की दिमाग़ी सेहत की समीक्षा नही करते."
"हम तो सही जानकारी हासिल कर के लोगों की मदद करने की कोशिश भर कर रहे हैं."
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 8
मूड में आए बदलाव का पता
वैसे, ऐसा काम सिर्फ़ फ़ेसबुक नहीं कर रहा है. मारिया लियाकटा ब्रिटेन की वारविक यूनिवर्सिटी से जुड़ी हुई हैं.
मारिया लोगों के सोशल मीडिया पोस्ट, मैसेज और मोबाइल फ़ोन के आंकड़ों की मदद से उनके मूड का पता लगाने पर रिसर्च कर रही हैं.
वो कहती हैं, "हम बिना लोगों के जीवन में दखल दिए उनके बर्ताव पर नज़र रखते हैं, उनके मूड में आए बदलाव का पता लगाते हैं."
मारिया मानती हैं कि भविष्य में ऐसी तकनीक विकसित हो सकेगी जिससे किसी ऐप के ज़रिए लोगों को फौरी मदद पहुंचाई जा सके.
हालांकि बहुत से लोग इस तरह की दख़लंदाज़ी को निजता में दखल मानते हैं. लेकिन, ऑनलाइन दुनिया में लाखों लोग अपनी मर्ज़ी से हाल-ए-दिल बयां करते हैं.
इस लेख में Google YouTube से मिली सामग्री शामिल है. कुछ भी लोड होने से पहले हम आपकी इजाज़त मांगते हैं क्योंकि उनमें कुकीज़ और दूसरी तकनीकों का इस्तेमाल किया गया हो सकता है. आप स्वीकार करने से पहले Google YouTube cookie policy और को पढ़ना चाहेंगे. इस सामग्री को देखने के लिए 'अनुमति देंऔर जारी रखें' को चुनें.
पोस्ट YouTube समाप्त, 9
ऑनलाइन बुलिंग से निपटने में...
फिर मुश्किल में पड़े लोगों की मदद करने के लिए अगर मशीनी आंकड़ों का सहारा लिया जा रहा है, तो ग़लत क्या है.
वोबॉट और वाइसा जैसे ऐप लोगों से संवाद कर के उनकी परेशानियां दूर करने की कोशिश करते हैं. ऐसे ही ऐप ऑनलाइन बुलिंग से निपटने में भी मददगार बन रहे हैं.
हालांकि अभी भी कोई सिस्टम इतना परफेक्ट नहीं हुआ है कि ऐसे मामलों को पूरी तरह ख़त्म किया जा सके.
अब कुछ काम इंसानों को भी करना होगा. हर ज़िम्मेदारी मशीनें तो नहीं उठा सकतीं.
(बीबीसी फ़्यूचर पर मूल अंग्रेज़ी लेख पढ़ने के लिए आप यहां क्लिक कर सकते हैं. बीबीसी फ़्यूचर को आप फ़ेसबुक और ट्विटर पर फ़ॉलो कर सकते हैं.)
(बीबीसी हिन्दी के एंड्रॉएड ऐप के लिए आप यहां क्लिक कर सकते हैं. आप हमें फ़ेसबुक, ट्विटर, इंस्टाग्राम और यूट्यूब पर फ़ॉलो भी कर सकते हैं.)


















