Nagpur’s reins in Neeta Thakre’s hands, city gets a new Mayor  Ghooskhor Pandit Controversy Letter to PM, Brahmin Community Protests Manoj Bajpayee’s Film  Delhi on Alert Over 800 People Missing in 27 Days, No Trace of 572 So Far  Theft Incident in Nagpur’s Sitabuldi, Cash and Goods Stolen After Breaking Shop Lock  Decision on Nagpur’s Power Nears Intense Behind-the Scenes Clash Within BJP  Chartered Plane Crashes in Baramati, Deputy CM Ajit Pawar Among 5 Dead  Nitin Gadkari Janata Darbar in Nagpur Civic Issues Raised by Citizens  One Call Bank Account Drained Cyber Crime Hits New High  Senior BJP Leader Sandip Joshi Resigns from Active Politics Nagpur News  बजाज चेतक इलेक्ट्रिक 3 घंटे में फुल चार्ज 320KM रेंज और रॉयल लुक कम बजट में  न्यू नागपुर समृद्धि महामार्ग से जुड़ी जमीनों की कीमत में रिकॉर्ड तोड़ बढ़ोतरी

Deepfake का आतंक: आम महिलाओं की छवि से की जा रही अश्लीलता की कोशिश

Published on 26 July 2025
news image for Deepfake का आतंक: आम महिलाओं की छवि से की जा रही अश्लीलता की कोशिश

विज्ञान और तकनीक के क्षेत्र में हो रही अभूतपूर्व प्रगति ने मानव जीवन को एक नई दिशा दी है। आर्टिफिशियल इंटेलिजेंस (AI) ने हमारी दुनिया को कई मायनों में बदल कर रख दिया है। जहां एक ओर इसका उपयोग चिकित्सा, शिक्षा, सुरक्षा और व्यापार में क्रांतिकारी सुधार लाने के लिए किया जा रहा है, वहीं दूसरी ओर इसके कुछ दुरुपयोग भी सामने आ रहे हैं, जिनमें से एक है Deepfake तकनीक। Deepfake एक ऐसी तकनीक है जो न केवल सामाजिक ताने-बाने के लिए खतरा बन चुकी है, बल्कि यह लोकतंत्र, सुरक्षा, निजता और नैतिक मूल्यों को भी चुनौती दे रही है।

Deepfake शब्द दो शब्दों के संयोजन से बना है – "Deep learning" और "Fake"। Deep learning मशीन लर्निंग की वह शाखा है जो न्यूरल नेटवर्क के माध्यम से डेटा को इस तरह सीखती है कि वह इंसानी व्यवहार और पैटर्न की नकल कर सके। जब इसी तकनीक का प्रयोग किसी वीडियो या ऑडियो में किसी व्यक्ति की पहचान, हाव-भाव, आवाज़ या चेहरा बदलने के लिए किया जाता है, तो वह Deepfake कहलाता है। इस तकनीक में GANs (Generative Adversarial Networks) नामक एल्गोरिद्म का प्रयोग होता है, जिसमें एक मशीन दूसरी मशीन के साथ प्रतिस्पर्धा करते हुए इतना यथार्थवादी डेटा बनाती है कि वह असली और नकली में अंतर करना लगभग असंभव हो जाता है।

Deepfake का सबसे व्यापक उपयोग आज सोशल मीडिया पर देखा जा सकता है। पहले जहां फर्जी समाचार या एडिट की गई तस्वीरें एक हद तक सीमित थीं, वहीं अब Deepfake वीडियो के माध्यम से किसी भी व्यक्ति को किसी भी बयान या कार्य के साथ जोड़ना संभव हो गया है। यह तकनीक इतनी सटीक और वास्तविक लगती है कि आम दर्शक के लिए इसके नकली होने का अंदाज़ा लगाना मुश्किल हो जाता है। यहीं से शुरू होती है इसकी गंभीरता।

भारत में भी Deepfake तकनीक ने कई मशहूर हस्तियों को निशाना बनाया है। अभिनेत्री रश्मिका मंदाना का हाल ही में एक Deepfake वीडियो वायरल हुआ, जिसमें उनके चेहरे को किसी अन्य महिला के शरीर पर लगाया गया था, और यह वीडियो अश्लील प्रवृत्ति का था। इस घटना ने न केवल उन्हें व्यक्तिगत रूप से आहत किया बल्कि साइबर अपराध की गंभीरता को भी उजागर किया। इसी तरह अभिनेत्री आलिया भट्ट, नेता अरविंद केजरीवाल, प्रधानमंत्री नरेंद्र मोदी और प्रियंका गांधी जैसे नाम भी Deepfake का शिकार हो चुके हैं, जिनके फर्जी वीडियो सोशल मीडिया पर वायरल हुए। कभी उन्हें गलत बयानों के साथ दिखाया गया तो कभी अपमानजनक भाषा में बात करते हुए।

इन घटनाओं से यह स्पष्ट होता है कि Deepfake केवल एक तकनीकी प्रयोग नहीं, बल्कि एक साइबर हथियार बन चुका है। इसके परिणाम केवल व्यक्तिगत प्रतिष्ठा के हनन तक सीमित नहीं रहते, बल्कि यह समाज में अस्थिरता, अविश्वास और हिंसा को भी जन्म दे सकते हैं। राजनीतिक प्रचार में इसका इस्तेमाल न केवल मतदाताओं को भ्रमित कर सकता है, बल्कि लोकतांत्रिक प्रक्रिया को भी नुकसान पहुंचा सकता है। चुनावी समय में इस प्रकार के वीडियो लोगों की सोच और निर्णय प्रक्रिया को सीधे प्रभावित कर सकते हैं।

Deepfake की सबसे बड़ी विडंबना यह है कि इसका दुरुपयोग करने के लिए किसी विशेष कौशल की आवश्यकता नहीं होती। आजकल ओपन-सोर्स टूल्स और मोबाइल एप्स के माध्यम से भी Deepfake वीडियो आसानी से बनाए जा सकते हैं। इसका सबसे दुखद पहलू यह है कि अब आम लोग, विशेष रूप से महिलाएं और बच्चे, इसके शिकार बनने लगे हैं। कई मामलों में लड़कियों की साधारण सोशल मीडिया प्रोफाइल पिक्चर्स को लेकर उन्हें अश्लील वीडियो में बदला गया है और ब्लैकमेल किया गया है। कुछ मामलों में आत्महत्याएं तक हो चुकी हैं, जो इस तकनीक के घातक प्रभावों को उजागर करती हैं।

कानूनी दृष्टिकोण से देखा जाए तो भारत में Deepfake के खिलाफ अभी भी कोई स्पष्ट और स्वतंत्र कानून नहीं है। हालांकि आईटी अधिनियम 2000 (Information Technology Act) और आईटी नियम 2021 (IT Rules 2021) में कुछ प्रावधान हैं जो Deepfake जैसे साइबर अपराधों को रोकने की कोशिश करते हैं, लेकिन यह तेजी से बदलती तकनीक की तुलना में काफी कमजोर साबित हो रहे हैं। सरकार ने Digital India Act (Draft 2023) में Deepfake और AI-generated content को नियंत्रित करने के लिए नए नियमों की योजना बनाई है, लेकिन जब तक यह कानून प्रभाव में नहीं आते, तब तक लोगों की सतर्कता ही सबसे बड़ा बचाव है।

Deepfake के प्रभाव केवल भारत तक सीमित नहीं हैं। अमेरिका, चीन, यूरोप और अन्य देशों में भी Deepfake का दुरुपयोग बढ़ रहा है। अमेरिका में पूर्व राष्ट्रपति बराक ओबामा और डोनाल्ड ट्रंप के नकली वीडियो वायरल हो चुके हैं। रूस और चीन में इसे राजनीतिक प्रोपेगेंडा फैलाने के लिए भी इस्तेमाल किया गया है। कुछ अपराधी संगठनों ने Deepfake की मदद से CEO fraud और बिजनेस ईमेल कंप्रोमाइज जैसे घोटाले भी किए हैं, जिससे कंपनियों को करोड़ों का नुकसान हुआ है।

अब प्रश्न उठता है कि Deepfake से कैसे बचा जाए? इसका उत्तर केवल तकनीकी समाधान में नहीं, बल्कि सामाजिक जागरूकता, नैतिक शिक्षा और कानूनी सुधारों में छिपा है। सबसे पहले तो सोशल मीडिया उपयोगकर्ताओं को किसी भी वीडियो या ऑडियो को शेयर करने से पहले उसकी सत्यता की जांच करनी चाहिए। कई बार वीडियो में छोटे-छोटे संकेत होते हैं जैसे चेहरे की असंगत गति, आँखों की हरकत या लिप-सिंकिंग की त्रुटियाँ, जो Deepfake की पोल खोल सकते हैं। इसके अलावा रिवर्स इमेज या वीडियो सर्च टूल्स की मदद से यह पता लगाया जा सकता है कि वीडियो असली है या नकली।

इसके अलावा टेक कंपनियों को भी जिम्मेदारी लेनी चाहिए। Facebook, Instagram, YouTube और WhatsApp जैसे प्लेटफॉर्म्स पर Deepfake की पहचान करने और उसे हटाने के लिए AI आधारित मॉडरेशन सिस्टम विकसित किए जाने चाहिए। भारत सरकार को भी सोशल मीडिया कंपनियों पर सख्त नियम लागू करने चाहिए, ताकि फर्जी वीडियो की पहचान समय रहते हो सके और उसे फैलने से रोका जा सके।

Deepfake को पूरी तरह खत्म करना फिलहाल संभव नहीं दिखता, लेकिन इसके खिलाफ समाज को सजग और सचेत किया जा सकता है। स्कूलों, कॉलेजों और संस्थानों में डिजिटल साक्षरता के पाठ्यक्रम में Deepfake की जानकारी शामिल की जानी चाहिए। बच्चों और किशोरों को यह सिखाया जाना चाहिए कि तकनीक का सही उपयोग क्या है और उसका दुरुपयोग किस प्रकार से समाज और व्यक्ति दोनों को नुकसान पहुंचा सकता है।

नैतिक दृष्टिकोण से देखा जाए तो Deepfake तकनीक हमें एक आईना दिखाती है – क्या हम सच और झूठ में फर्क करने की क्षमता खो चुके हैं? क्या हम हर चीज़ को मनोरंजन या प्रचार का माध्यम समझने लगे हैं, चाहे वह किसी की प्रतिष्ठा से ही क्यों न जुड़ा हो? इस प्रश्न का उत्तर हम सबको स्वयं ढूंढना होगा।

Deepfake का भविष्य इस पर निर्भर करता है कि हम इसे किस दिशा में लेकर जाते हैं। यदि इसका इस्तेमाल शिक्षा, सिनेमा, मनोरंजन और चिकित्सा जैसे रचनात्मक क्षेत्रों में किया जाए, तो यह एक क्रांतिकारी तकनीक साबित हो सकती है। उदाहरण के लिए, फिल्मों में पुराने कलाकारों को फिर से जीवित करना, भाषाई अनुवाद में किसी नेता के भाषण को लोकल भाषा में दिखाना, या किसी मृत व्यक्ति की आवाज़ को उसके परिवार के लिए फिर से सुनने लायक बनाना – ये सब सकारात्मक उपयोग हो सकते हैं।

लेकिन जब यही तकनीक झूठ फैलाने, बदनाम करने, झांसे में लेने या सत्ता प्राप्त करने के लिए इस्तेमाल की जाती है, तो यह एक डिजिटल विस्फोट बन जाती है, जिसकी चपेट में आने से कोई नहीं बच सकता।

अतः Deepfake तकनीक को समझना, पहचानना और उससे बचाव करना आज के डिजिटल युग में अत्यंत आवश्यक हो गया है। यह केवल तकनीकी समझ का प्रश्न नहीं, बल्कि एक सामाजिक, नैतिक और संवैधानिक जिम्मेदारी है, जिसे हर नागरिक को निभाना चाहिए।

news image for Mahalaxmi Infra

news image for BIDM