ट्विटर पर वायरल हुईं ‘नग्न AI जेनरेटेड तस्वीरें’, एक्ट्रेस ने दर्ज कराई FIR! पुलिस ने कहा—’ये डीपफेक टेक्नोलॉजी का अपराध’

ट्विटर पर वायरल हुईं ‘नग्न AI जेनरेटेड तस्वीरें’, एक्ट्रेस ने दर्ज कराई FIR! पुलिस ने कहा—’ये डीपफेक टेक्नोलॉजी का अपराध’

मुंबई: बॉलीवुड की जानी-मानी एक्ट्रेस आर्या शर्मा ने ट्विटर पर वायरल हुई अपनी नकली नग्न तस्वीरों के खिलाफ मुंबई पुलिस में FIR दर्ज कराई है। ये तस्वीरें AI जेनरेटेड डीपफेक टेक्नोलॉजी से बनाई गई हैं, जिसमें एक्ट्रेस के चेहरे को अश्लील छवियों पर मैप किया गया है। पुलिस ने इस मामले को साइबर क्राइम की श्रेणी में रखते हुए हैकर्स की तलाश शुरू कर दी है। यह घटना न सिर्फ बॉलीवुड, बल्कि पूरे देश में AI के दुरुपयोग पर बहस छेड़ दी है।


क्या है पूरा मामला? वायरल हुईं तस्वीरों ने मचाई सनसनी

गत सप्ताह ट्विटर पर #AryaSharmaLeaks ट्रेंड करने लगा, जिसके तहत कुछ अज्ञात यूजर्स ने आर्या शर्मा की नकली नग्न तस्वीरें पोस्ट कीं। ये तस्वीरें इतनी रियलिस्टिक थीं कि शुरुआत में फैंस ने उन्हें असली समझ लिया। आर्या के प्रशंसकों ने जब उनके सोशल मीडिया अकाउंट्स पर सवाल उठाए, तो उन्होंने पुलिस शिकायत दर्ज कराई। आर्या ने एक प्रेस कॉन्फ्रेंस में कहा, “ये तस्वीरें पूरी तरह फ़ेक हैं। किसी ने मेरी प्रोफेशनल फोटोज का गलत इस्तेमाल कर मेरा चेहरा अश्लील कंटेंट पर लगा दिया। यह सिर्फ मेरी इज्ज़त नहीं, हर महिला की सुरक्षा पर सवाल है।”

पुलिस के अनुसार, ये तस्वीरें डीपफेक ऐप्स जैसे DeepNude, RefaceAI और FaceSwap का इस्तेमाल करके बनाई गई हैं। इन ऐप्स की मदद से किसी की भी वीडियो या फोटो को अश्लील कंटेंट में बदला जा सकता है। हैकर्स ने आर्या की पुरानी फिल्मों और इंटरव्यू से ली गई तस्वीरों का डेटा इस्तेमाल किया है।


कानूनी कार्रवाई: क्या कहता है IT एक्ट?

मुंबई पुलिस ने इस मामले में सूचना प्रौद्योगिकी अधिनियम, 2000 की धारा 66E (प्राइवेसी का उल्लंघन) और धारा 67 (अश्लील सामग्री का प्रसार) के तहत केस दर्ज किया है। साइबर सेल के DCP राजेश खन्ना ने बताया, “हमने ट्विटर से यूजर्स के डेटा मांगे हैं। ये तस्वीरें अमेरिका और यूक्रेन के सर्वर्स से अपलोड की गई हैं, लेकिन हम हैकर्स तक पहुंचेंगे।”

वहीं, केंद्र सरकार ने डिजिटल व्यक्तित्व संरक्षण विधेयक, 2025 लागू करने की घोषणा की है, जिसके तहत बिना अनुमति किसी का डिजिटल अवतार बनाना अपराध होगा।


AI का अंधेरा पक्ष: कैसे काम करती है डीपफेक टेक्नोलॉजी?

डीपफेक (Deepfake) टेक्नोलॉजी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग पर आधारित है। यह किसी व्यक्ति के चेहरे या आवाज को वीडियो/ऑडियो में कॉपी करके उसे किसी और के शरीर या सीन में पेस्ट कर देती है। विशेषज्ञों के अनुसार:

  • फेस स्वैपिंग: चेहरे की 3D मैपिंग करके इसे किसी दूसरे वीडियो में फिट किया जाता है।
  • वॉयस क्लोनिंग: सिर्फ 5 मिनट की ऑडियो रिकॉर्डिंग से किसी की आवाज की नकल बनाई जा सकती है।
  • न्यूरल नेटवर्क: AI मॉडल्स लाखों तस्वीरें स्कैन करके रियलिस्टिक फेक कंटेंट जेनरेट करते हैं।

साइबर सुरक्षा विशेषज्ञ अंकिता जोशी ने चेतावनी दी: “आज ये तकनीक सिर्फ सेलिब्रिटीज को टार्गेट कर रही है, लेकिन कल कोई भी आम व्यक्ति शिकार बन सकता है।”


सोशल मीडिया पर प्रतिक्रियाएं: #StopDeepfakeAbuse ट्रेंड कर रहा

आर्या शर्मा के समर्थन में बॉलीवुड की कई हस्तियों ने ट्विटर पर #IStandWithArya और #StopDeepfakeAbuse हैशटैग्स ट्रेंड कराए। वहीं, कुछ यूजर्स ने मीम्स बनाकर इस गंभीर मुद्दे को हल्के में लिया:

  • “अगर AI मेरी फोटो एडिट करे, तो मैं तो फ़ेमस हो जाऊंगा!” 
  • “डीपफेक देखकर लगा, आर्या ने नई फिल्म का प्रोमो शुरू किया है!”

वहीं, ट्विटर इंडिया ने एक बयान जारी कर कहा: “हम ऐसे कंटेंट को सख्ती से हटा रहे हैं और यूजर्स के खिलाफ कार्रवाई करेंगे।”


कैसे बचें डीपफेक हमले से? विशेषज्ञों के सुझाव

  1. सोशल मीडिया सावधानी: व्यक्तिगत तस्वीरें और वीडियो सार्वजनिक न करें।
  2. डिजिटल वॉटरमार्क: फोटोज पर AI टूल्स (जैसे Truepic) से वॉटरमार्क लगाएं।
  3. रिवर्स इमेज सर्च: Google Lens या TinEye से चेक करें कि आपकी तस्वीरें कहीं लीक तो नहीं।
  4. कानूनी कदम: अश्लील कंटेंट मिलने पर साइबर सेल में तुरंत शिकायत करें।

निष्कर्ष

आर्या शर्मा का मामला साबित करता है कि AI टेक्नोलॉजी अगर गलत हाथों में पहुंचे, तो यह समाज के लिए खतरनाक हो सकती है। सरकार, टेक कंपनियों और जनता को मिलकर डिजिटल एथिक्स के नियम बनाने होंगे। फिलहाल, यह सवाल हर नागरिक के लिए प्रासंगिक है: क्या आपकी तस्वीर अगला टार्गेट है?


FAQs

1. डीपफेक तस्वीरें कैसे पहचानें?
चेहरे की रंगत में असमानता, आंखों का अस्वाभाविक चमकना, या शरीर के साथ चेहरे का मेल न खाना।

2. क्या भारत में डीपफेक बनाना गैरकानूनी है?
हां, IT Act की धारा 66E और 67 के तहत यह अपराध है।

3. सोशल मीडिया प्लेटफॉर्म्स क्या कर रही हैं?
Meta (Facebook/Instagram) और Twitter ने AI टूल्स से फ़ेक कंटेंट डिटेक्ट करने के सिस्टम लगाए हैं।

4. आम लोग कैसे बचाव करें?
अपनी फोटोज को प्राइवेट रखें और किसी भी संदिग्ध लिंक पर क्लिक न करें।

5. AI का सही इस्तेमाल क्या है?
शिक्षा, हेल्थकेयर और कला में इनोवेशन के लिए।

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *