डीपफेक -चरित्र हनन का औजार जिसने प्रधानमंत्री मोदी को भी नहीं छोड़ा  

डीपफेक -चरित्र हनन का औजार जिसने प्रधानमंत्री मोदी को भी नहीं छोड़ा  

 

पांच नवंबर को अभिनेत्री रश्मिका मंदाना का डीपफेक वीडियो सोशल मीडिया पर खूब वायरल हुआ था। सोशल मीडिया पर यूजर्स ने इस वीडियो का विरोध करते हुए कानूनी कार्रवाई की मांग की थी। वहीं अभिनेत्री के समर्थन में अमिताभ बच्चन आए और कानूनी कार्रवाई की मांग कीजिसके बाद इस फेक वीडियो पर रश्मिका की भी प्रतिक्रिया सामने आई थी । दरअसलयह वीडियो असल में जारा पटेल का था । अभिनेत्री रश्मिका मंदाना के डीप फेक वीडियो के बाद हर कोई सकते में था ।

पर इस मामले में ज्यादा तूल तब पकड़ा जब प्रधानमंत्री नरेन्द्र मोदी ने शुक्रवार को इस बारे में चेतावनी  दी। मोदी ने कहा कि एक तरफ नई-नई टैक्नोलॉजी जिंदगी को जहां आसान बना रही हैवहीं नई टैक्नोलॉजी के अपने खतरे भी हैं। ऐसे खतरेजो किसी की जिंदगी बर्बाद कर सकते हैंसामाजिक ताने-बाने को खराब कर सकते हैंसमाज में तनाव पैदा कर सकते हैंइसलिए इससे सावधान रहने की ज़रूरत है। मोदी ने कहा कि आर्टिफिशियल इंटैलीजेंस के आने के बाद अब जागरूकता जरूरी है क्योंकि आर्टिफीशियल इंटैलीजेंस असली-नकली का फर्क खत्म कर देती हैपता ही नहीं चलता कि क्या सच्चा है और क्या नकली। मोदी ने फेक वीडियो की बात की। कहा कि आजकल सबके हाथ में फोन हैहर फोन में तमाम तरह के एप हैंसबमें सोशल मीडिया एप हैं और अगर एक फेक वीडियो आता है तो वो कुछ ही मिनटों में सोशल मीडिया के जरिए लाखों लोगों तक पहुंच जाता हैलोग उसे सही समझ लेते हैं। इससे किसी व्यक्ति या समाज का बड़ा नुकसान हो सकता है। 

प्रधानमंत्री नरेंद्र मोदी शुक्रवार को पत्रकारों के साथ एक दीपावली मिलन समारोह में बोल रहे थे। उन्होंने बताया कि कैसे एक नकली वीडियो में उन्हें महिलाओं के साथ गरबा डांस करते हुए दिखाया गया। मोदी ने बताया कि स्कूल के दिनों के बाद से उन्होंने कभी गरबा डांस किया ही नहीं। लेकिन इस वीडियो को देखकर कोई नहीं कह सकता कि वीडियो में जो व्यक्ति गरबा कर रहा हैवो प्रधानमंत्री नहीं। ये एक डीप फेक वीडियो है। चूंकि टैकनोलॉजी इतनी आगे बढ़ गई है कि किसी भी व्यक्ति को कुछ भी करते हुएकहते हुए दिखाया जा सकता है। चेहरा भी उसी का होगाआवाज़ भी उसी की होगीलेकिन सब नकली। और क्या असली हैक्या नकली हैइसकी पुष्टि करने के लिए आम लोगों के पास कोई ज़रिया नहीं है। इसलिए जो दिखता हैलोग उसी पर भरोसा कर लेते हैं। मोदी ने कहा कि अभी भले समझ में न आए लेकिन आर्टिफिशियल इंटैलीजेंस का खतरा भविष्य में बड़ी परेशानियां पैदा कर सकता हैइसलिए इसके प्रति लोगों को सावधान करने की जरूरत है। 

फेक वीडियो का कैसे दुरूपयोग हो सकता हैइसका उदाहरण मध्य प्रदेश के चुनाव में हुआ। चुनाव के दौरान फेक वीडियो का खूब इस्तेमाल हुआ। कांग्रेस और बीजेपी ने इसको लेकर चुनाव आयोग में एक दूसरे के खिलाफ खूब शिकायतें कीं। शुक्रवार को  वोटिंग खत्म होने के बाद मुख्यमंत्री शिवराज चौहान ने आरोप लगाया कि कांग्रेस ने चुनाव के दौरान नकलीझूठे वीडियो दिखाए और जनता को गुमराह करने की कोशिश की। दरअसलबीजेपी ने झूठे प्रचार और गलत तरीकों से प्रचार के करीब दो दर्जन शिकायतें की हैंइनमें ज्यादातर शिकायतें उन वीडियो की हैजो दूसरे वीडियो पर नकली आवाज़ और ग्राफिक्स सुपरइंपोज करके बनाए गए हैं। इस तरह के कई वीडियो मध्य प्रदेश में सोशल मीडिया के जरिए खूब फैलाए गए। एक वीडियो में दिखाया गया कि शिवराज सिंह कैबिनेट की मीटिंग के दौरान मंत्रियों और अफसरों से कह रहे है कि ‘जनता बहुत नाराज है.।बीजेपी भारी अंतर से हार सकती है...इसलिए कुछ भी करो...हर गांव में जाओबूथ पर जाओ...जो करना है करो...अभी वक्त है...सब ठीक करो...मैनेज करो...’  असली वीडियो चुनाव के एलान से पहले शिवराज सिंह चौहान की आखिरी कैबिनेट मीटिंग का है। वीडियो असली थालेकिन इसमें आवाज शिवराज सिंह चौहान की नहीं है। चौहान की आवाज की हुबहू नकल करके इसे वीडियो पर सुपर इंपोज किया गया। इस वीडियो को जिन व्हॉट्सऐप ग्रुप्स के जरिए फैलाया गयाउनकी शिकायत पुलिस से की गई। पुलिस ने जांच करके इस तरह के वीडियो को तमाम सोशल मीडिया प्लेटफॉर्म्स से हटवाया। इस तरह के वीडियो कांग्रेस से जुड़े लोगों की तरफ से सर्कुलेट किए गए। ऐसे दर्जनों वीडियो बनाए गए ।

कौन बनेगा करोड़पति’ की ओरिजनल क्लिप से छेड़छाड़ की गई। होस्ट और कंटेस्टेंट की आवाज़ बदलकर सारा कटेंट बदल दिया गया। इस वीडियो से ये मैसेज देने की कोशिश की गई कि शिवराज सिंह सिर्फ घोषणाएं करते हैंउन पर अमल नहीं करते। कौन बनेगा करोड़पति शो के होस्ट अमिताभ बच्चन थेलेकिन आवाज सबकी नकली थी। आवाज सुपरइंपोज करकेग्राफिक्स डालकर ऐसा दिखाने की कोशिश की गई जैसे वाकई में ‘कौन बनेगा करोड़पति’ में सवाल पूछा गया और शिवराज सिंह चौहान को घोषणा मुख्यमंत्री बताया गया। कांग्रेस के नेताओं और कार्यकर्ताओं ने इसे मध्य प्रदेश में खूब सर्कुलेट किया। 'कौन बनेगा करोड़पतिको टेलीकास्ट करने वाली कंपनी सोनी टीवी को सफाई देनी पड़ी जिसमें कहा गया कि ये नकली वीडियो हैहोस्ट और कंटेस्टेंट्स की आवाज़ से छेड़छाड़ की गई हैसाइबर क्राइम सेल में शिकायत की गई है। सोनी टीवी ने लोगों से अपील की कि इस तरह के वीडियो शेयर न करें। इसी तरह मशहूर एक्टर कार्तिक आर्यन को भी इस तरह के गुमराह करने वाले एक नकली कैम्पेन में लपेट लिया गया। कांग्रेस के ब्लू टिक वाले किसी समर्थक ने कार्तिक आर्यन का एक वीडियो शेयर कर दिया और उसके साथ कैप्शन लिखा कि अब तो कार्तिक आर्यन भी कांग्रेस का समर्थन करने लगे हैं। चूंकि कार्तिक आर्यन मध्यप्रदेश के ही रहने वाले हैंइसलिए जानबूझकर उनका वीडियो इस फर्जी  कैम्पेन के लिए इस्तेमाल किया गया। इस वीडियो की खास बात ये थी कि इसमें कांग्रेस का चुनाव निशान पंजा भी लगाया गया था। कार्तिक आर्यन ने अगले ही दिन स्पष्टीकरण जारी कर दिया और कहा कि जिस वीडियो से छेड़छाड़ कर सियासत की जा रही है वो तो एक OTT प्लेटफॉर्म का एड हैजिसे डॉक्टर्ड करके कांग्रेस का विज्ञापन बना दिया गया  

दुष्प्रचार और अफवाहें किस कदर खतरनाक हो सकती हैं इससे हम सब वाकिफ हैं।ये झुंझलाहट पैदा करती है तो इनसे दुनिया में जंग तक की नौबत आ सकती है।कई ऐसी घटनाएं हो चुकी हैं जब इनकी वजह से समाज में फूट पड़ी और बड़े पैमाने पर कलह- झगड़ा हुआ है।ये झूठी होने के बाद भी इस कदर मजबूत होती हैं कि चुनावों के नतीजों तक असर डालने का दम रखती हैं । 

सोशल मीडिया के दौर में ये खतरा बेहद बढ़ा हुआ है।जब भू-राजनीतिक आकांक्षाओं वाले साइबर हैकरकिसी विचारधारा को पागलपन की हद तक मानने वाले लोगहिंसक चरमपंथियों और पैसे लेकर खतरों पर खेलने वाले लोग सोशल मीडिया का इस्तेमाल अपने गलत मकसद के लिए करते हैं।इस तरह से भ्रामक और झूठे तरीकों से गलत सूचनाओं को फैलाने वाले लोगों के हाथ डीपफेक के तौर पर अब एक नया हथियार लगा है  । 

आखिर ये डीपफेक है क्या है ?यह जानना भी जरूरी है । दरअसल डीपफेक का मतलब आर्टिफिशियल इंटेलिजेंस- एआई के जरिए डिजिटल मीडिया में हेरफेर करना है।एआई के इस्तेमाल से शरारती तत्व वीडियोऑडियोऔर फोटोज में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कर हेरफेर यानी मनिप्युलेशन और एडिटिंग को अंजाम देते हैं।एक तरह से देखा जाए तो ये बेहद वास्तविक लगना वाला डिजिटल फर्जीवाड़ा हैइसलिए इसे डीपफेक नाम दिया गया है । 

वैसे आर्टिफिशियल इंटेलिजेंस (एआई) से पैदा किया गया सिंथेटिक मीडिया या डीपफेक कुछ क्षेत्रों में बेहद फायदेमंद साबित होता है।उदाहरण के लिए शिक्षाफिल्म निर्माणआपराधिक फोरेंसिक और कलात्मक अभिव्यक्ति में ये बहुत काम की चीज है।आर्टिफिशियल इंटेलिजेंस का मतलब एक मशीन में इंसान की तरह सोचने-समझने और निर्णय लेने की क्षमता का विकास करना है । 

यही वजह है कि इसे कंप्यूटर साइंस में सबसे बेहतरीन और टॉप माना जाता है।इसमें कंप्यूटर को इस तरह से तैयार किया जाता है कि वो बिल्कुल इंसान की तरह से सोच कर काम कर सकें।इस सबके साथ इसका बहुत बड़ा नुकसान भी है।जैसे-जैसे सिंथेटिक मीडिया में टेक्नोलॉजी का दखल बढ़ रहा हैवैसे-वैसे इसके जरिए शोषण का खतरा भी बढ़ता जा रहा है।रोबोट्सकंप्यूटर्स से लेकर मोबाइल एप्लीकेशन में एल्गोरिदम आर्टिफिशियल इंटेलिजेंस इस्तेमाल में लाई जाती है। इतना ही नहीं यह बड़े पैमाने और रफ्तार से हो सकता है।इसमें माइक्रो टारगेटिंग के जरिए नई टेक्नोलॉजी का इस्तेमाल कर बड़े पैमाने पर ऑनलाइन डेटा इकट्ठा किया जा सकता है।इसके जरिए आसानी से डिजिटल मीडिया में कोई भी बदलाव लाया जा सकता है । 

इतना सब घट जाने के बाद केंद्र सरकार भी अब कड़ाई से हरकत में आई है । केंद्रीय आईटी मंत्री अश्विनी वैष्णव ने शनिवार को सोशल मीडिया प्लेटफार्मों को चेतावनी दी कि सूचना और प्रौद्योगिकी अधिनियम  में ‘सुरक्षित बंदरगाह’ खंड  के तहत उन्हें जो छूट प्राप्त हैवह लागू नहीं होगी यदि वे डीपफेक  को हटाने के लिए कदम नहीं उठाते हैं।धारा के अनुसारकिसी ऑनलाइन प्लेटफॉर्म को उपयोगकर्ताओं द्वारा उस पर पोस्ट की गई सामग्री के लिए जिम्मेदार नहीं ठहराया जा सकता है।केंद्रीय मंत्री ने कहा कि केंद्र सरकार ने हाल ही में सभी बड़े सोशल मीडिया प्लेटफॉर्म को नोटिस जारी किया है और उनसे डीपफेक की पहचान करने और सामग्री को हटाने के लिए कदम उठाने को कहा है।उन्होंने कहा कि प्लेटफार्मों ने प्रतिक्रिया दी और वे कार्रवाई कर रहे हैं। उन्होंने कहा, “हमने सभी प्लेटफाॉर्मों से इस दिशा में और अधिक आक्रामक होने के लिए कहा है.” वैष्णव ने कहा कि सरकार ने हाल ही में डीपफेक मुद्दे पर कंपनियों को नोटिस जारी किया था और प्लेटफार्मों ने जवाब भी दिया।उन्होंने कहा कि लेकिन कंपनियों को ऐसी सामग्री पर कार्रवाई करने में अधिक आक्रामक होना होगा।वैष्णव ने कहा है कि  वे कदम उठा रहे हैंलेकिन हमें लगता है कि कई और कदम उठाने होंगे ।

अशोक भाटिया,

वरिष्ठ स्वतंत्र पत्रकार ,लेखक  एवं टिप्पणीकार

About The Author

Post Comment

Comment List

अंतर्राष्ट्रीय

Online Channel

साहित्य ज्योतिष

संजीव-नी।
संजीव-नी।
संजीव -नी।
संजीव-नी।
संजीव-नी|