लोकसभा चुनाव पर डीपफेक कैसे बन सकता है खतरा? जानें क्या है यह तकनीक? पूर्व मुख्य चुनाव आयुक्त ने भी जताई चिंता
दुनिया भर में डीपफेक शब्द चर्चा में है। इस तकनीक से तैयार ऑडियो-वीडियो और फोटो कई बड़ी हस्तियों की चिंता बढ़ा चुके हैं। रूस के राष्ट्रपति व्लादिमीर पुतिन और अभिनेत्री रश्मिका मंदाना भी डीपफेक की शिकार हो चुकी हैं। दिग्गज पूर्व क्रिकेटर सचिन तेंदुलकर का भी एक फर्जी वीडियो इस तकनीक से तैयार किया गया था। अब लोकसभा चुनाव के बीच इस तकनीक की चर्चा है।
चुनाव डेस्क, नई दिल्ली। बढ़ती तकनीक से जहां काम करने का तरीका बदला है तो वहीं इससे कई खतरे भी उत्पन्न हुए हैं। अगर तकनीक अच्छे हाथ में पहुंची तो उसका इस्तेमाल ठीक हो सकता है। वहीं कई बार तकनीक का इस्तेमाल दुर्भावना और दुष्प्रचार की नीयत से किया जा चुका है। ऐसी स्थिति में चिंता जाहिर करना लाजमी है।
आर्टिफिशियल इंटेलिजेंस (AI) एक ऐसी ही तकनीक है, जिसका प्रयोग कर डीपफेक सामग्री तैयार की जा सकती है। अब लोकसभा चुनाव के बीच डीपफेक की चर्चा है। यह तकनीक चुनाव में खतरा बन सकती है। इसका इस्तेमाल जनमत को प्रभावित करने में भी किया जा सकता है। देश के पूर्व मुख्य चुनाव आयुक्त डॉ. एसवाई कुरैशी भी इस पर चिंता जाहिर कर चुके हैं।
गुमराह या बहकाने में किया जा सकता इस्तेमाल
डीपफेक तकनीक का इस्तेमाल, ऑडियो-वीडियो, फोटो या किसी अन्य फार्मेट में किया जा सकता है। इसे आर्टिफिशियल इंटेलिजेंस (एआई) की मदद से तैयार किया जाता है। इससे तैयार फोटो, वीडियो और ऑडियो असली जैसे दिखने वाले लेकिन नकली होते हैं। इससे तैयार सामग्री का इस्तेमाल लोगों को गुमराह करने या बहकाने में किया जा सकता है। जानकारी के मुताबिक 2017 में पहली बार एक रेडिट यूजर ने डीपफेक शब्द का इस्तेमाल किया था।चुनाव में इस तकनीक से किसी नेता या दल के बारे में गलत प्रचार किया जा सकता है। गलत संदेश भी फैलाए जा सकते हैं। इतना ही नहीं गलत तरीके से इसका इस्तेमाल किसी के पक्ष में भी किया जा सकता है। ऐसे में किसी भी ऑडियो-वीडियो या फोटो पर आंख मूंदकर विश्वास करने से पहले उसको जांचना जरूरी है।
कुछ भी गलत तैयार किया जा सकता है: एसवाई कुरैशी
डीपफेक और एआई के सवाल पर दैनिक जागरण से विशेष साक्षात्कार में देश के पूर्व मुख्य चुनाव आयुक्त एसवाई कुरैशी कहते हैं कि यह बहुत ही खतरनाक है। एआई के माध्यम से किसी के बारे में कुछ भी गलत संदेश तैयार किया जा सकता है। एक मिनट के भीतर किसी के बारे में अच्छा या गलत संदेश फैलाया जा सकता है। ऐसे संदेश फैलाए जा सकते हैं जैसे- मैं चुनाव से अपने आपको बाहर कर रहा हूं, आप मेरे चालक को वोट दे दो या मेरे जानकार को वोट दे दो। जब तक सच्चाई सामने आएगी तब तक उस नेता का काफी नुकसान हो चुका होगा।फिलहाल इसके ऊपर रोक लगाने की कोई तकनीक विकसित नहीं। सरकार तत्काल प्रभाव से इस पर ध्यान दे। दिक्कत यह है कि मैसेज प्रसारित करने वालों का पता लगाना मुश्किल है। तकनीक इतनी विकसित हो चुकी है कि किसी की आवाज निकालकर मैसेज प्रसारित किया जा सकता है।यह भी पढ़ें: इन मुद्दों पर सियासी दलों को परखता है उत्तराखंड का मतदाता, गांव से शहर तक होती है चर्चा
क्या है डीपफेक ?
डीपफेक सामग्री का निर्माण डीप लर्निंग तकनीक से किया जाता है। यही वजह है कि डीपफेक शब्द भी 'डीप लर्निंग' और 'फेक' शब्द से मिलकर बना है। डीप लर्निंग तकनीक की मदद से असली वीडियो को किसी अन्य वीडियो और फोटो के साथ बदल दिया जाता है। देखने में यह असली जैसा लगता है लेकिन होता नहीं है।यह तकनीक असली फोटो-और वीडियो को नकली से इस तरह से स्वैप करता है कि इसे पहचानना मुश्किल होता है। डीपफेक तकनीक जेनरेटिव एडवरसैरियल नेटवर्क (GAN) का इस्तेमाल करती है। यह तकनीक असली वीडियो-फोटो के एल्गोरिदम और पैटर्न की नकल करती है। इसके बाद जेनरेटिव एडवरसैरियल नेटवर्क की सहायता से असली जैसा दिखने वाला फर्जी वीडियो या फोटो तैयार करती है।क्या कहते हैं आईटी एक्सपर्ट
इंदौर के रहने वाले आईटी एक्सपर्ट समीर शर्मा से जब बात की तो उन्होंने बताया कि डीपफेक आर्टिफिशियल इंटेलिजेंस (एआई) का गलत अप्लीकेशन है। डीपफेक में जेनरेटिव एडवरसैरियल नेटवर्क का इस्तेमाल किया जाता है। इसमें इनकोडर और डिकोडर नेटवर्क होते हैं। जब किसी व्यक्ति का वीडियो अपलोड किया जाता तो उसी का डाटा विश्लेषण के आधार पर असली की तरह दिखने वाला नकली वीडियो बनाया जाता है। यह निजता और कानून का उल्लंघन है। चुनाव में भी इसका इस्तेमाल हो सकता है। डीपफेक सामग्री की पहचान करना कठिन है। जब तक इसकी पहचान की जाएगी तब तक चुनाव हो चुके होंगे। ऐसे में कड़े कानून की आवश्यकता है।ऐसे करें डीपफेक की पहचान
मौजूदा समय में कई वेबसाइट्स हैं जो डीपफेक सामग्री की पहचान करती हैं। अगर आपको भी कोई फोटो या वीडियो पर शंका है तो पहले उसकी जांच जरूर करें। कई बार इन वीडियो और फोटो को गौर से देखने पर ही पता लग जाता है कि ये नकली हैं। वीडियो देखते वक्त हाथ-पैर गौर से देखें। चेहरे की भाव भंगिमा, लिप सिंकिंग और बॉडी मूवमेंट से डीपफेक वीडियो को पकड़ सकते हैं। इन सबके बीच कुछ एआई टूल की मदद से डीपफेक वीडियो-फोटो को जांच सकते हैं।इनकी भी ले सकते हैं मदद
- AI or Not: इस वेबसाइट की मदद से आप एआई की मदद से तैयार ऑडियो और फोटो की पहचान कर सकते हैं।
- Hive Moderation: इस टूल की मदद से भी एआई जनरेटेड सामग्री को पहचाना जा सकता है।
- Deepware Scanner: इस वेबसाइट की मदद से फेक वीडियो-ऑडियो की पड़ताल कर सकते हैं।