मुंबई: बॉलीवुड की जानी-मानी एक्ट्रेस आर्या शर्मा ने ट्विटर पर वायरल हुई अपनी नकली नग्न तस्वीरों के खिलाफ मुंबई पुलिस में FIR दर्ज कराई है। ये तस्वीरें AI जेनरेटेड डीपफेक टेक्नोलॉजी से बनाई गई हैं, जिसमें एक्ट्रेस के चेहरे को अश्लील छवियों पर मैप किया गया है। पुलिस ने इस मामले को साइबर क्राइम की श्रेणी में रखते हुए हैकर्स की तलाश शुरू कर दी है। यह घटना न सिर्फ बॉलीवुड, बल्कि पूरे देश में AI के दुरुपयोग पर बहस छेड़ दी है।
क्या है पूरा मामला? वायरल हुईं तस्वीरों ने मचाई सनसनी
गत सप्ताह ट्विटर पर #AryaSharmaLeaks ट्रेंड करने लगा, जिसके तहत कुछ अज्ञात यूजर्स ने आर्या शर्मा की नकली नग्न तस्वीरें पोस्ट कीं। ये तस्वीरें इतनी रियलिस्टिक थीं कि शुरुआत में फैंस ने उन्हें असली समझ लिया। आर्या के प्रशंसकों ने जब उनके सोशल मीडिया अकाउंट्स पर सवाल उठाए, तो उन्होंने पुलिस शिकायत दर्ज कराई। आर्या ने एक प्रेस कॉन्फ्रेंस में कहा, “ये तस्वीरें पूरी तरह फ़ेक हैं। किसी ने मेरी प्रोफेशनल फोटोज का गलत इस्तेमाल कर मेरा चेहरा अश्लील कंटेंट पर लगा दिया। यह सिर्फ मेरी इज्ज़त नहीं, हर महिला की सुरक्षा पर सवाल है।”
पुलिस के अनुसार, ये तस्वीरें डीपफेक ऐप्स जैसे DeepNude, RefaceAI और FaceSwap का इस्तेमाल करके बनाई गई हैं। इन ऐप्स की मदद से किसी की भी वीडियो या फोटो को अश्लील कंटेंट में बदला जा सकता है। हैकर्स ने आर्या की पुरानी फिल्मों और इंटरव्यू से ली गई तस्वीरों का डेटा इस्तेमाल किया है।
कानूनी कार्रवाई: क्या कहता है IT एक्ट?
मुंबई पुलिस ने इस मामले में सूचना प्रौद्योगिकी अधिनियम, 2000 की धारा 66E (प्राइवेसी का उल्लंघन) और धारा 67 (अश्लील सामग्री का प्रसार) के तहत केस दर्ज किया है। साइबर सेल के DCP राजेश खन्ना ने बताया, “हमने ट्विटर से यूजर्स के डेटा मांगे हैं। ये तस्वीरें अमेरिका और यूक्रेन के सर्वर्स से अपलोड की गई हैं, लेकिन हम हैकर्स तक पहुंचेंगे।”
वहीं, केंद्र सरकार ने डिजिटल व्यक्तित्व संरक्षण विधेयक, 2025 लागू करने की घोषणा की है, जिसके तहत बिना अनुमति किसी का डिजिटल अवतार बनाना अपराध होगा।
AI का अंधेरा पक्ष: कैसे काम करती है डीपफेक टेक्नोलॉजी?
डीपफेक (Deepfake) टेक्नोलॉजी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग पर आधारित है। यह किसी व्यक्ति के चेहरे या आवाज को वीडियो/ऑडियो में कॉपी करके उसे किसी और के शरीर या सीन में पेस्ट कर देती है। विशेषज्ञों के अनुसार:
- फेस स्वैपिंग: चेहरे की 3D मैपिंग करके इसे किसी दूसरे वीडियो में फिट किया जाता है।
- वॉयस क्लोनिंग: सिर्फ 5 मिनट की ऑडियो रिकॉर्डिंग से किसी की आवाज की नकल बनाई जा सकती है।
- न्यूरल नेटवर्क: AI मॉडल्स लाखों तस्वीरें स्कैन करके रियलिस्टिक फेक कंटेंट जेनरेट करते हैं।
साइबर सुरक्षा विशेषज्ञ अंकिता जोशी ने चेतावनी दी: “आज ये तकनीक सिर्फ सेलिब्रिटीज को टार्गेट कर रही है, लेकिन कल कोई भी आम व्यक्ति शिकार बन सकता है।”
सोशल मीडिया पर प्रतिक्रियाएं: #StopDeepfakeAbuse ट्रेंड कर रहा
आर्या शर्मा के समर्थन में बॉलीवुड की कई हस्तियों ने ट्विटर पर #IStandWithArya और #StopDeepfakeAbuse हैशटैग्स ट्रेंड कराए। वहीं, कुछ यूजर्स ने मीम्स बनाकर इस गंभीर मुद्दे को हल्के में लिया:
- “अगर AI मेरी फोटो एडिट करे, तो मैं तो फ़ेमस हो जाऊंगा!”
- “डीपफेक देखकर लगा, आर्या ने नई फिल्म का प्रोमो शुरू किया है!”
वहीं, ट्विटर इंडिया ने एक बयान जारी कर कहा: “हम ऐसे कंटेंट को सख्ती से हटा रहे हैं और यूजर्स के खिलाफ कार्रवाई करेंगे।”
कैसे बचें डीपफेक हमले से? विशेषज्ञों के सुझाव
- सोशल मीडिया सावधानी: व्यक्तिगत तस्वीरें और वीडियो सार्वजनिक न करें।
- डिजिटल वॉटरमार्क: फोटोज पर AI टूल्स (जैसे Truepic) से वॉटरमार्क लगाएं।
- रिवर्स इमेज सर्च: Google Lens या TinEye से चेक करें कि आपकी तस्वीरें कहीं लीक तो नहीं।
- कानूनी कदम: अश्लील कंटेंट मिलने पर साइबर सेल में तुरंत शिकायत करें।
निष्कर्ष
आर्या शर्मा का मामला साबित करता है कि AI टेक्नोलॉजी अगर गलत हाथों में पहुंचे, तो यह समाज के लिए खतरनाक हो सकती है। सरकार, टेक कंपनियों और जनता को मिलकर डिजिटल एथिक्स के नियम बनाने होंगे। फिलहाल, यह सवाल हर नागरिक के लिए प्रासंगिक है: क्या आपकी तस्वीर अगला टार्गेट है?
FAQs
1. डीपफेक तस्वीरें कैसे पहचानें?
चेहरे की रंगत में असमानता, आंखों का अस्वाभाविक चमकना, या शरीर के साथ चेहरे का मेल न खाना।
2. क्या भारत में डीपफेक बनाना गैरकानूनी है?
हां, IT Act की धारा 66E और 67 के तहत यह अपराध है।
3. सोशल मीडिया प्लेटफॉर्म्स क्या कर रही हैं?
Meta (Facebook/Instagram) और Twitter ने AI टूल्स से फ़ेक कंटेंट डिटेक्ट करने के सिस्टम लगाए हैं।
4. आम लोग कैसे बचाव करें?
अपनी फोटोज को प्राइवेट रखें और किसी भी संदिग्ध लिंक पर क्लिक न करें।
5. AI का सही इस्तेमाल क्या है?
शिक्षा, हेल्थकेयर और कला में इनोवेशन के लिए।