एमपी: AI से डीप फेक फोटो बनाकर छात्राओं को कर रहा था ब्लैकमेल, पुलिस जांच में चौंकाने वाले तथ्य आए सामने

न्यूड फोटो, वीडियो बनाने वाले ज्यादातर बच्चों और महिलाओं को ही शिकार बनाते है, सोशल मीडिया से चुराते हैं तस्वीरें।
सांकेतिक फोटो.
सांकेतिक फोटो.Internet
Published on

भोपाल। इस समय दुनिया में आर्टिफिशियल इंटेलिजेंस (AI) की चर्चा जोरों पर है। बहुत सारे लोग डिजिटल से जुड़े विभिन्न कार्यों में इसका उपयोग भी कर रहे है। आसान तरीके से तुरंत कोई काम हो जाना, इसे और भी उपयोगी बना रहा है, लेकिन फायदे के साथ यह बेहद खतरनाक भी है। हालांकि तकनीक का प्रयोग करने वाले पर निर्भर करता है कि वह इसका प्रयोग किस रूप में करे, क्योंकि इसके फायदे और नुकसान दोनों ही हैं।

कुछ लोग एआई की मदद से काम को आसान बनाते हैं तो कुछ लोगों ने इसकी मदद से अश्लील और डीपफेक फ़ोटो वीडियो बनाकर सायबर अपराध कर रहे हैं। हाल ही में एआई से जुड़ा एक मामला मध्य प्रदेश के इंदौर से सामने आया है। जहां छात्राओं के डीपफेक फोटो बनाकर ब्लैकमेल किया जा रहा था।

दरअसल, इंदौर के परदेशीपुरा पुलिस ने ऐसे साइबर अपराधी को गिरफ्तार किया है जो एआई की मदद से छात्राओं को ब्लैकमेल कर रहा था। आरोपी नगर निगम में कम्प्यूटर आपरेटर है। उसने कई छात्राओं के डीपफेक फोटो बना लिए थे। वहीं फोटो छात्रा को भेजकर ब्लैकमेल कर रहा था।

इंदौर पुलिस के डीसीपी अभिनव विश्वकर्मा के मुताबिक पीड़िता ने पुलिस को बताया कुछ दिनों पूर्व इंस्टाग्राम आईडी पर सामान्य मैसेज आया था। अनजान आईडी होने से उसने मैसेज को नजरअंदाज कर दिया। दूसरे दिन उसने कहा कि मेरे पास तुम्हारे आपत्तिजनक फोटो है। मुझे ब्लॉक किया तो मैं सोशल मीडिया पर वायरल कर तुम्‍हें बदनाम कर दूंगा।

तीसरे दिन आरोपी ने छात्रा को फोटो भेज दिए। उसमें चेहरा तो उसका था लेकिन शरीर अन्य किसी महिला का था। आरोपी ने यह भी कहा कि उसके पास कई युवतियों के फोटो है। शनिवार को छात्रा ने थाने पहुंच कर शिकायत दर्ज करवा दी। साइबर सेल की मदद से देर रात आरोपी को गिरफ्तार कर लिया गया।

आरोपी शाजापुर नगर निगम में कम्प्यूटर ऑपरेटर है। उसकी पत्नी देवी अहिल्या विश्वविद्यालय में पढ़ रही है। आरोपी ने एआई की मदद से पत्नी की सहेलियों के डीपफेक फोटो बनाए थे। वह उन्हें धमका कर ब्लैकमेल करना चाहता था। पुलिस ने आरोपी का मोबाइल जब्त कर लिया है। और साइबर अपराध की धाराओं में मुकदमा दर्ज किया है।

इसके पहले भी डीपफेक फोटो से ब्लैकमेलिंग के ढेरों घटनाएं सामने आ चुकी हैं। बीते माह अप्रेल 2024 में उत्तर प्रदेश की राजधानी लखनऊ में एआई की मदद से ब्लैकमेलिंग का मामला सामने आया था। यहां कमता निवासी ठेकेदार को लोनिंग ऐप का इस्तेमाल भारी पड़ गया था। साइबर जालसाजों ने लोन के रुपये वसूलने के साथ ही एआई की मदद से पीड़ित के बच्चों की अश्लील फोटो बनाकर ब्लैकमेल करते हुए हजारों रुपये वसूल लिए।

महिलाएं और बच्चे बन रहे शिकार

AI का गलत उपयोग कर न्यूड फोटो, वीडियो बनाने वाले अक्सर बच्चों और महिलाओं को ही शिकार बनाते हैं। एक्सर्पट्स के मुताबिक वीडियो तैयार करने के लिए कई एंगल के फोटो की जरूरत होती है। जबकि फोटो के लिए सिर्फ एक फ़ोटो की आवश्यकता पड़ती है। सोशल मीडिया से यह फ़ोटो चोरी करना सबसे आसान तरीका है। रिपोर्ट्स के मुताबिक डीपफेक न्यूड फ़ोटो के इस्तेमाल से बच्चे और महिलाओं को ही ब्लैकमेल की घटनाएं सर्वाधिक हो रही है।

क्या कहते हैं एक्सपर्ट

सोशल मीडिया पर अपनी तस्वीर पोस्ट करने वाली महिलाओं के लिए यह काफी खतरनाक साबित हो सकता है, क्योंकि कोई भी आपकी फोटो सोशल मीडिया से चुराकर उसका गलत इस्तेमाल कर सकता है। द मूकनायक प्रतिनिधि से बातचीत करते हुए भोपाल के आईटी एक्सपर्ट मोहम्मद इखलाख ने बताया कि कंप्यूटर, मोबाइल का इस्तेमाल करने वाले लोग ही एआई का उपयोग कर सकते हैं।

एआई की एडवान्स फीचर तकनीक मुफ्त नहीं है और इसके लिए पैसे चुकाने पड़ते हैं। इसके सबसे सस्ते 100 क्रेडिट पैक की कीमत 30 अमेरिकी डॉलर होती है। आप कई तरह के एआई इंटरनेट से खरीद सकते हैं। एआई जितना उपयोगी है, उतना ही इसका दुरुपयोग हो सकता है। पर यह इस्तेमाल करने वाले के ऊपर निर्भर करता है। फोटो और वीडियो को एआई के मदद से बड़ी आसानी से एडिट किया जा सकता है। यह इतनी सफाई से होता है कि किसी आम व्यक्ति को यह पता ही नहीं चलेगा की वीडियो, फोटो एडिटेड है।

एक लाख न्यूड तस्वीरें की गई तैयार!

एक रिपोर्ट के मुताबिक एआई का उपयोग करके कुछ लोगों ने एक लाख से अधिक न्यूड तस्वीरें तैयार की हैं। सेंसिटी नामक एक सुरक्षा कंपनी ने यह दावा किया था, कि कुछ लोगों ने एक लाख से भी अधिक न्यूड फोटो एआई की मदद से तैयार किए थे। एजेंसी ने कहा था, कि इन फोटो का उपयोग महिलाओं को ब्लैकमेलिंग के लिए किया जा सकता है। ऐसे ही एक चैनल पर ज्यादातर 70 प्रतिशत यूजर्स रूस से आए थे, जबकि उनमें से कुछ यूरोपीय देशों से भी थे। एक्सपर्ट्स ने चेतावनी दी है कि ऐसी तस्वीरों का दुरुपयोग महिलाओं को ब्लैकमेल करने या परेशान करने के लिए किया जा सकता है।

रिपोर्ट के अनुसार इसके लिए जिम्मेदार एआई बॉट डीपन्यूड सॉफ्टवेयर के ओपन-सोर्स वर्जन पर आधारित हो सकता है, जो कपड़े पहने महिलाओं की तस्वीरों के न्यूड वर्जन तैयार करने के लिए डीप टेक्नोलॉजी और जीएएन या जेनरेटिव एडवरसैरियल नेटवर्क का इस्तेमाल करता है। एआई ने इसे ऐसा बनाया है, जोकि काफी असली लगते है और इसमें चेहरा स्पष्ट रूप से दिखाई दे रहा है।

द मूकनायक की पड़ताल

हमने एक्सपर्ट की देखरेख में ऐसी ही AI फीचर को समझने के लिए इंटरनेट में बनाएं गए चैनल और सर्वर को खोजा। न्यूड फोटो क्रिएशन क्राइम होने के बावजूद भी यह टूल्स इटनरेंट में भरे पड़े हैं। इन टूल्स को सर्च करते ही सैकड़ों में न्यूड़ फोटो वीडियो तैयार करने वाले एआई टूल्स और चैनल स्क्रीन पर आ गए थे। इनमें से बहुत से टूल्स फ्री थे, जिनसे आसानी से कुछ ही सेकेंड में न्यूड फोटो तैयार कर दी जाती है। लेकिन यह सर्वर और टूल्स सुरक्षित नहीं है। इनसे तैयार की गई फ़ोटो, वीडियो यह सर्वर अपने पास एक कॉपी सुरक्षित कर लेते हैं, जिसका आपको पता ही नहीं लगेगा। इसका मतलब है, AI के टूल्स इस्तेमाल करने के बाद भी फ़ोटो, वीडियो आप डिलीट करते भी हो तो यह न्यूड फोटो उस सर्वर में सेव हो जाएगा।

क्या रखें सावधानियां?

द मूकनायक प्रतिनिधि से बातचीत करते हुए मध्य प्रदेश राज्य साइबर पुलिस के एआईजी वैभव श्रीवास्तव ने बताया कि सोशल मीडिया का उपयोग सावधानी से किया जाना चाहिए। फ्रेंड लिस्ट में ऐसे लोग ही हों जिन्हें आप अच्छे से पहचानते हैं। साथ ही अकाउंट को प्राईवेसी मोड़ पर रखे ताकि बाहर का कोई शख्स आपकी तस्वीरों को कॉपी नहीं कर पाए। यदि फिर भी ऐसी घटना होती है, तो बिना डरे सीधे पुलिस से शिकायत करें। हमने इसके लिए ऑनलाइन, फोन और ऑफलाइन शिकायत स्वीकार करने की व्यवस्था की है।

एआईजी श्रीवास्तव ने कहा- "यदि किसी भी व्यक्ति की कोई फोटो कहीं अपलोड की है तो सायबर उन्हें हटाने की कार्रवाई करता है। हमारे पास ऐसे टूल्स और तकनीक है, जिससे आरोपी का आईपी एड्रेस ट्रेस कर लिया जाता है। ऐसे अपराधी अब सायबर पुलिस से बच नहीं पाते। फिर भी सभी को सोशल मीडिया इस्तेमाल करते समय सावधानियां बरतनी चाहिए।"

सांकेतिक फोटो.
MP: पन्ना में सिलिकोसिस बीमारी की चपेट में हजारों आदिवासी खनन मजदूर!- ग्राउंड रिपोर्ट
सांकेतिक फोटो.
क्या है पुनर्योजी कृषि, कैसे AI टूल्स भविष्य में लाने वाले हैं कृषि में जबरदस्त क्रांति?
सांकेतिक फोटो.
MP: भोपाल एम्स बना रहा सर्वाइकल कैंसर जांच के लिए सबसे छोटी डिवाइस, जानिए कैसे करेगी काम?

द मूकनायक की प्रीमियम और चुनिंदा खबरें अब द मूकनायक के न्यूज़ एप्प पर पढ़ें। Google Play Store से न्यूज़ एप्प इंस्टाल करने के लिए यहां क्लिक करें.

The Mooknayak - आवाज़ आपकी
www.themooknayak.com