न्यूजीलैंड में MP ने संसद में अपनी न्यूड फोटो दिखाई:कहा- ये AI से 5 मिनट में बनी, डीपफेक रोकने के लिए कानून बने

न्यूजीलैंड की महिला सांसद लॉरा मैक्लर ने संसद में अपनी एक AI-जेनरेटेड न्यूड तस्वीर दिखाई। उनका मकसद लोगों को ये बताना था कि ऐसी फर्जी तस्वीरें बनाना कितना आसान है और ये कितना खतरनाक हो सकता हैं। लॉरा ने संसद में कहा कि उन्होंने एक गूगल सर्च के जरिए मिली वेबसाइट का इस्तेमाल करके कुछ ही मिनटों में अपनी डीपफेक तस्वीर बना ली। उन्होंने डीपफेक और AI को नियंत्रित करने के लिए कानून की मांग की है। उन्होंने कहा- यह मेरी न्यूड तस्वीर है, लेकिन यह असली नहीं है। मुझे ऐसी डीपफेक तस्वीरें बनाने में पांच मिनट से भी कम समय लगा। 14 मई को लॉरा ने यह बातें कहीं थी, जो अब वायरल हो रही हैं। लॉरा ने कहा, “समस्या तकनीक में नहीं है, बल्कि इसका गलत इस्तेमाल करके लोगों को परेशान करने में है। हमें इसका हल निकालना होगा।” डीपफेक की ज्यादातर शिकार महिलाएं न्यूजीलैंड में अभी डीपफेक को सीधे तौर पर नियंत्रित करने वाला कोई कानून नहीं है, हालांकि डिजिटल संचार से संबंधित कुछ नियम जरूर हैं। लॉरा डीपफेक डिजिटल हार्म एंड एक्सप्लॉइटेशन बिल का समर्थन कर रही हैं, जो रिवेंज पोर्न और निजी रिकॉर्डिंग से संबंधित मौजूदा कानूनों को अपडेट करेगा। इसके तहत बिना मर्जी के डीपफेक बनाना या साझा करना अपराध होगा। न्यूजीलैंड के विशेषज्ञों का कहना है कि ज्यादातर डीपफेक पोर्न बिना सहमति के बनाए जाते हैं और इनका निशाना ज्यादातर महिलाएं होती हैं। लॉरा को उम्मीद है कि उनका यह कदम कानूनी सुधारों को तेज करेगा। उन्होंने कहा, “किसी को भी बिना सहमति के डीपफेक पोर्न का निशाना नहीं बनना चाहिए। यह साफ तौर पर उत्पीड़न है। हमारे कानूनों को जल्दी अपडेट करने की जरूरत है।” डीपफेक वीडियो में 90 से 95% अश्लील कंटेंट लॉरा मैक्लर ने बताया कि डीपफेक फोटो बनाने के लिए आपको बस एक बॉक्स में टिक करके यह कहना होता है कि आप 18 वर्ष से अधिक उम्र के हैं और फोटो में मौजूद व्यक्ति की सहमति आपके पास है। हालांकि अधिकांश मामलों में सहमति नहीं ली जाती। लॉ एसोसिएशन के अनुसार ऑनलाइन डीपफेक वीडियो में 90 से 95% गैर-सहमति आधारित अश्लील कंटेंट होते है। इनमें से लगभग 90% में महिलाओं को गलत तरीके से दिखाया जाता है। मैक्लर ने कहा कि उनसे कई लोग संपर्क कर चुके हैं जो डीपफेक से जुड़ी धमकी या सेक्सटॉर्शन से प्रभावित हुए हैं। उन्होंने कहा कि इसका विशेष रूप से युवाओं पर गंभीर मानसिक प्रभाव पड़ा है। मैक्लर कानून में बदलाव करना चाहती हैं ताकि डीपफेक के निर्माण और साझा करने पर प्रतिबंध लगाया जा सके। मैक्लर के बिल को आधिकारिक सरकारी कानून के रूप में मान्यता देने पर एक प्रवक्ता ने हेराल्ड से कहा कि सरकार वर्तमान में इस पर विचार नहीं कर रही है। लॉरा मैक्लर के बिल की खास बातें अमेरिका में बिना सहमति फोटो यूज करना अपराध अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प ने मई में टेक इट डाउन एक्ट पर हस्ताक्षर किए, जिसके तहत किसी व्यक्ति की सहमति के बिना उसकी फोटो को यूज करना अपराध होगा। ये नियम पीड़ितों के अनुरोध पर सोशल मीडिया प्लेटफॉर्म्स को 48 घंटे के भीतर ऐसी तस्वीरों को हटाने के लिए बाध्य करता है। कई भारतीय हस्तियां भी डीपफेक का शिकार हुईं रश्मिका मंदाना सोशल मीडिया पर नवंबर 2024 में एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मॉर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे। प्रियंका चोपड़ा अभिनेत्री प्रियंका चोपड़ा को दिसंबर 2023 में एक वीडियो में एक ब्रांड का प्रचार करते और अपनी वार्षिक आय का खुलासा करते हुए देखा गया। वीडियो में प्रियंका का चेहरा नहीं बदला गया था। हालांकि उनकी आवाज और मूल वीडियो की लाइन के ऑडियो को एक नकली ब्रांड विज्ञापन से बदल दिया गया था। आलिया भट्ट आलिया भट्ट दो बार डीपफेक का शिकार हो चुकी हैं। डीपफेक वीडियो में आलिया भट्ट को ब्लैक कुर्ता में रेडी होते दिखाया गया था। पूरे क्लिप में वो कैमरे के सामने मेकअप करती नजर आ रही थीं। आलिया भट्ट के अलावा इंफोसिस के संस्थापक नारायण मूर्ति, क्रिकेटर सचिन तेंदुलकर, अभिनेत्री और डांसर नोरा फतेह और विराट कोहली भी डीपफेक का शिकार हो चुके है। डीपफेक होता क्या है और कैसे बनाया जाता है? डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है। AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है। भारत में डीपफेक को लेकर नियम ———————— ये खबर भी पढ़ें… पाकिस्तान में टिकटॉक स्टार सना की बर्थडे पर हत्या:घर में घुसकर गोली मारी, मेहमान बनकर आया था हमलावर; गिरफ्तार पाकिस्तान में सोशल मीडिया इन्फ्लुएंसर सना यूसुफ की उनके ही घर में गोली मारकर हत्या कर दी गई है। घटना इस्लामाबाद के जी-13 इलाके में हुई। गोली मारने के बाद हमलावर फरार हो गया। पूरी खबर पढ़ें…

FacebookMastodonEmail

Leave a Reply

Your email address will not be published. Required fields are marked *