रोकना होगा तकनीक का दुरुपयोग, डीपफेक सरीखी तकनीकों से निपटने के लिए भारत में एक प्रभावी ढांचे की जरूरत
डीपफेक तकनीक के तहत किसी फोटो या वीडियो में दूसरे का चेहरा लगा दिया जाता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस यानी एआइ का सहारा लिया जाता है। इसमें वीडियो और आडियो को साफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगे। वायस क्लोनिंग की वजह से अब आवाज भी हुबहू कापी की जा सकती है।
शशांक द्विवेदी। अभिनेत्री रश्मिका मंदाना का बीते दिनों एक वीडियो वायरल हुआ, जिसमें किसी और के चेहरे पर उनका चेहरा लगा दिया गया। वायरल वीडियो इंटरनेट मीडिया से जुड़ी एक हस्ती जारा पटेल का था, जिसे एडिट करके उनके चेहरे को रश्मिका मंदाना के चेहरे से बदल दिया गया। ऐसा डीपफेक तकनीक के जरिये किया गया। ऐसी तकनीकी छेड़छाड़ की शिकार अभिनेत्री कैटरीना कैफ भी हुई हैं। अन्य देशों में भी ऐसे मामले आ चुके हैं।
ये मामले यही बताते हैं कि तकनीक का दुरुपयोग बढ़ता जा रहा है। रश्मिका मंदाना का वीडियो सामने आने के बाद केंद्र सरकार हरकत में आई और केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा कि डीपफेक वीडियो गलत सूचना का सबसे खतरनाक रूप हैं। प्रभावित लोगों को तुरंत एफआइआर दर्ज कराने को कहा गया, वहीं एक्स, इंस्टाग्राम और फेसबुक समेत सभी इंटरनेट मीडिया प्लेटफार्मों से सूचना प्रौद्योगिकी नियमों के तहत शिकायत मिलने के 36 घंटे के भीतर छेड़छाड़ कर बनाई गई तस्वीरों-वीडियो हटाने के निर्देश दिए गए।
डीपफेक तकनीक के तहत किसी फोटो या वीडियो में दूसरे का चेहरा लगा दिया जाता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस यानी एआइ का सहारा लिया जाता है। इसमें वीडियो और आडियो को साफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगे। वायस क्लोनिंग की वजह से अब आवाज भी हुबहू कापी की जा सकती है। इसके चलते लोगों को गलत संदेश जाता है और भ्रम फैलता है।
डीपफेक शब्द पहली बार 2017 में इस्तेमाल हुआ। तब अमेरिका के सोशल न्यूज एग्रीगेटर रेडिट पर कई सेलिब्रिटीज के वीडियो पोस्ट किए गए। इनमें अभिनेत्री एमा वाटसन, गैल गैडोट, स्कारलेट आदि के कई वीडियो थे। आर्टिफिशियल इंटेलिजेंस की वजह से तकनीक जिस तेजी से बदल रही है और दुनिया को जिस तरह प्रभावित कर रही है, वह समस्याएं पैदा करने वाला है। ऐसी कई चीजें, जिनके बारे में हम कभी सोच भी नहीं सकते थे, वे भी तकनीक के माध्यम से सामने आ रही हैं।
डीपफेक में वीडियो कुछ इस तरह से तैयार किए जाते हैं कि आवाज और हावभाव बिल्कुल वास्तविक लगते हैं। पहली नजर में पहचानना मुश्किल हो जाता है कि वीडियो असली है या नकली? ऐसे एआइ टूल और साफ्टवेयर आ गए हैं, जिनकी मदद से वीडियो से फेस को मार्फ कर दिया जाता है। इसे रोकना आसान नहीं। हालांकि तकनीकी कंपनियों द्वारा कुछ कदम उठाए गए हैं, लेकिन अभी वे पर्याप्त नहीं हैं। फेसबुक ने फेक कंटेट को रोकने के लिए सख्त कदम उठाया है। यूट्यूब भी डीपफेक की शिकायत मिलने पर उसे हटा देता है, लेकिन इंटरनेट के इस युग में इसे पूरी तरह रोकना मुश्किल है।
फेसबुक, इंस्टाग्राम, यूट्यूब जैसी कंपनियों को कानून की भाषा में इंटरमिडिएरी कहते हैं। भारत में आइटी एक्ट की धारा 79 के तहत उन्हें कानूनी छूट प्राप्त है। इलेक्ट्रानिक्स और इन्फार्मेशन टेक्नोलाजी मंत्रालय ने इंटरनेट मीडिया प्लेटफार्म्स को डीपफेक्स का दुरुपयोग होने पर अपनी एडवाइजरी में इन्फो टेक्नोलाजी एक्ट, 2000 की धारा 66डी का जिक्र करते हुए तत्काल कार्रवाई करने की बात कही है।
डीपफेक तकनीक का पिछले कुछ वर्षों में काफी गलत इस्तेमाल हुआ है। साइबर अपराधी इसका धड़ल्ले से दुरुपयोग कर रहे हैं। इसका सबसे अधिक दुरुपयोग अश्लील वीडियो या तस्वीरें बनाने में हो रहा है। जानी-मानी हस्तियों के साथ भी इस तकनीक के जरिये खिलवाड़ हो रहा है। प्रारंभ में इसका उपयोग मनोरंजन के लिए हो रहा था, लेकिन अब उसका दुरुपयोग दुष्प्रचार करने और भ्रम फैलाने के लिए किया जा रहा है। इसके अलावा पोर्न वीडियो बनाने में भी किया जा रहा है।
लोग अपनी तरफ से सावधानी बरतकर ही इस तकनीक के दुरुपयोग से बच सकते हैं। डीपफेक बनाने वाले लोग सबसे पहले लक्षित शख्स के बारे में पर्याप्त सूचनाओं का संग्रह करते हैं। इसलिए सार्वजनिक तौर पर अपनी तस्वीरें और वीडियो साझा करने से बचें, क्योंकि डीपफेक के लिए अधिक तस्वीरें और वीडियो जमा की जाती हैं, ताकि शख्स का हाव-भाव उकेरा जा सके। डीपफेक वीडियो बनाने और साझा करने पर आइपीसी की धारा के तहत कार्रवाई हो सकती है। यदि किसी की छवि खराब होती है तो मानहानि का दावा भी किया जा सकता है।
इस मामले में इंटरनेट मीडिया कंपनियों के खिलाफ भी आइटी नियमों के तहत कार्रवाई हो सकती है। आइटी मंत्रालय की एडवाइजरी के अनुसार यूजर्स की शिकायत मिलने के बाद डीपफेक कंटेंट को तुरंत हटाना होगा। हाल में यूरोपियन यूनियन ने डीपफेक तकनीक के गलत इस्तेमाल को रोकने के लिए एआइ एक्ट के तहत ‘कोड आफ प्रैक्टिस आन डिसइन्फार्मेशन’ लागू किया है। इसके तहत गूगल, मेटा, एक्स सहित कई कंपनियों को अपने प्लेटफार्म पर डीपफेक और फेक अकाउंट्स रोकने के लिए सख्त कदम उठाने होंगे। इन्हें लागू करने के लिए छह महीने का समय दिया गया है। कानून तोड़ने पर कंपनी को वार्षिक राजस्व का छह प्रतिशत जुर्माना देना पड़ेगा।
तकनीक के दुरुपयोग पर सुप्रीम कोर्ट के मुख्य न्यायाधीश भी चिंता जता चुके हैं। छेड़छाड़ कर किसी की भी तैयार की गई फोटो या वीडियो सार्वजानिक करने को गंभीर अपराध माना जाना चाहिए, क्योंकि यह किसी की निजता को सीधे प्रभावित करता है और उससे उसकी जिंदगी या करियर तबाह हो सकता है। भारत को डीपफेक और इस जैसी अन्य तकनीक के दुरुपयोग से निपटने के लिए एक प्रभावी कानूनी और नियामकीय ढांचे की जरुरत है, क्योंकि फोटो और वीडियो से छेड़छाड़ कर गलत एवं भ्रामक सूचनाएं फैलती रहती हैं। इसके चलते कई बार कानून एवं व्यवस्था के समक्ष भी संकट खड़ा हो जाता है।
(लेखक मेवाड़ यूनिवर्सिटी में डायरेक्टर और टेक्निकल टुडे पत्रिका के संपादक हैं)