विभिन्न कारणों और मुद्दों को लेकर कृत्रिम बुद्धिमत्ता (Artificial Intelligence) चर्चा में बनी हुई है। कृत्रिम बुद्धिमत्ता कंप्यूटर विज्ञान की एक ऐसी शाखा है, जिसका काम बुद्धिमान मशीन बनाना है। पिछले कुछ दशकों में कृत्रिम बुद्धिमत्ता के विस्तार ने हमारे दैनिक जीवन के हर पहलू में बड़े बदलाव किये हैं। सरलतम शब्दों में कहें तो आर्टिफिशियल इंटेलिजेंस का अर्थ है एक मशीन में सोचने-समझने और निर्णय लेने की क्षमता का विकास करना। आर्टिफिशियल इंटेलिजेंस को कंप्यूटर साइंस का सबसे उन्नत रूप माना जाता है और इसके लिये एक ऐसा दिमाग बनाया जाता है, जिसमें कंप्यूटर सोच सके, उसका ऐसा दिमाग हो जो इंसानों की तरह सोच सके। वर्तमान में इसकी वजह से ही समाज के हर वर्ग तक मूलभूत सुविधाओं की पहुँच को सुनिश्चित करना भी संभव हो सका है। हालाँकि किसी भी अन्य क्षेत्र की तरह इस क्षेत्र के भी लाभ और नुकसान है। इस क्षेत्र में विकसित तकनीकों के अनियंत्रित प्रयोग के कारण इसके दुरुपयोग की संभावनाएँ भी बढ़ती जा रही हैं। दुष्प्रचार और अफवाहों की समस्या अब एक बड़ी चुनौती बन गई है। इसी कड़ी में 'डीप फेक' (Deep Fake) दुष्प्रचार और अफवाहों को तेज़ी से तथा एक वृहद् पैमाने पर फैलाने का नया विकल्प बनकर उभरा है, जैसे व्हाट्सएप (Whatsapp) और फेसबुक (Facebook) के माध्यम से लिखित फ़ेक न्यूज़ (fake news) का प्रसारण होता था वैसे ही फोटो (Photos) और वीडियो (Videos) के माध्यम में भी होने लगा है। आर्टिफ़िशल इंटेलिजेन्स के द्वारा बनाए हुए इन वीडियो और फोटो में बहुत हद तक झूट दिखाया जा सकता है।
डीप फेक, ‘डीप लर्निंग’ (Deep Learning) और ‘फेक’ (Fake) का सम्मिश्रण है। इसके तहत डीप लर्निंग नामक एक कृत्रिम बुद्धिमत्ता सॉफ्टवेयर (Software) का उपयोग करके एक मौजूदा मीडिया फाइल (Media file) (फोटो, वीडियो या ऑडियो)(Photo, Video or Audio) की नकली प्रतिकृति तैयार की जाती है। डीप फेक का मामला सबसे पहले वर्ष 2017 में सामने आया था, जब सोशल मीडिया साइट ‘रेडिट’ (Reddit) पर ‘डीप फेक’ नाम के एक अकाउंट (Account) पर इसके एक उपयोगकर्त्ता द्वारा कई मशहूर हस्तियों की आपत्तिजनक डीप फेक तस्वीरें पोस्ट की गईं। इस घटना के बाद से डीप फेक के कई अन्य मामले भी सामने आए हैं। यह डीप लर्निंग तकनीक एक नई विधि द्वारा संचालित कि जाता है जिसे जेनरेटिव एडवर्सरियल नेटवर्क (Generative Adversarial Network-GAN) कहा जाता है। डीपफेक से आप किसी भी वीडियो में किसी का भी चेहरा किसी से बदल कर सकते हैं। इसमें मीडिया फाइल में व्यापक हस्तक्षेप (जैसे-चेहरे बदलना, लिप सिंकिंग (lip synching) या अन्य शारीरिक गतिविधि) किया जा सकता है, और ये काम इतनी सटीकता से किया जाता है कि खुद कंप्यूटर भी उसको डिटेक्ट (Detect) नहीं कर पाता कि असली और नकली कौन सी है, और इससे जुड़े अधिकांश मामलों में लोगों की पूर्व अनुमति नहीं ली जाती, जो मनोवैज्ञानिक, सुरक्षा, राजनीतिक अस्थिरता और व्यावसायिक व्यवधान का खतरा उत्पन्न करता है। हाल ही मे आपने कई वायरल वीडियो देखे होंगे जिसमें राष्ट्रपति ओबामा (President Obama) ने राष्ट्रपति ट्रम्प (President Trump) का वर्णन करते हुये दुर्वचनों का उपयोग किया है, और मार्क जकरबर्ग (Mark Zuckerberg) ने स्वीकार किया कि फेसबुक (Facebook) का असली लक्ष्य अपने उपयोगकर्ताओं के डेटा (Data) के साथ छेड़छाड़ करना और उनका शोषण करना है। ये सभी मीडिया फाइलें डीप फेक का ही उदाहरण हैं। डीप फेक जैसी तकनीकों के दुरुपयोग से राजनीतिक और सामाजिक अस्थिरता के साथ राष्ट्रीय सुरक्षा के लिये बड़ा खतरा उत्पन्न हो सकता है इसके माध्यम से सार्वजनिक रूप से उपलब्ध सूचनाओं में हेर-फेर कर और गलत सूचनाओं के प्रसार से बड़े पैमाने पर अस्थिरता उत्पन्न की जा सकती है।
हालांकि इन वीडियो में असली नकली का पता लगाना मुश्किल है, लेकिन कुछ चीजें ऐसी है जिसके जरिए हम यह जान सकते हैं कि वीडियो फर्जी बना है या नहीं। 2018 में, अमेरिकी शोधकर्ताओं ने पाया कि डीपफेक चेहरे सामान्य रूप से पलकें नहीं झपकते। इस तरह की अधिकांश वीडियो में लोग अपनी आंखों को खुला रखते हैं, क्योंकि एल्गोरिदम (Algorithms) वास्तव में पलके झपकाने के बारे में नहीं सीखते हैं, और नकली चेहरों में रियल आंखों की तरह नजरें और रेटिना (Retina) नहीं होती है इसी कारण जो व्यक्ति रियल में पलकें झपकाता है उस तरह फर्जी वीडियो में व्यक्ति पलकें नहीं झपका सकता है। खराब-गुणवत्ता वाले डीपफेक को पहचना और भी आसान है। इन वीडियो में लिप सिंकिंग खराब होती है, कभी-कभी वीडियो में फेक ऑडियो देते समय उसकी ऑडियो और होठों की चाल में फर्क आने पर लिप सिंकिंग खराब हो जाती है जिससे व्यक्ति पहचान सकता है कि यह वीडियो फर्जी है। इनमें स्किन टोन (Skin Tone) पैची (Patchy) होती है, एक असली वीडियो में जिस तरह व्यक्ति के चेहरे का रंग होता है वैसे ही स्किन का रंग फर्जी वीडियो में नहीं हो सकता है क्योंकि डीप फेक टेक्नोलॉजी किसी व्यक्ति का हुबहू चेहरा तो बना सकती लेकिन उसके चेहरे का कलर टोन (Color tone) नहीं बना सकते। दुनिया की कई सरकारें, विश्वविद्यालय और तकनीकी फर्म डीपफेक का पता लगाने के लिए प्रयास कर रहे हैं, पिछले महीने, पहला डीपफेक डिटेक्शन चैलेंज (Deepfake Detection Challenge) माइक्रोसॉफ्ट (Microsoft), फेसबुक और अमेज़ॅन (Amazon) द्वारा समर्थित किया गया था। इस पर काबू पाने के लिये फेसबुक ने पिछले सप्ताह डीपफेक वीडियो पर प्रतिबंध लगा दिया था, जो दर्शकों को गुमराह करने की संभावना रखते थे।
जिस तरह इस तकनीक का विकास और विस्तार हो रहा है तो उसके साथ इसके अवैध और बेकार काम भी हो रहे हैं। आजकल डीप फेक तकनीक का उपयोग हर कोई कर रहा है कोई मनोरंजन के लिए कर रहा है तो कोई गलत कार्यों के लिए। ऑनलाइन (Online) डीपफेक सामग्री की मात्रा तेजी से बढ़ रही है। एक रिपोर्ट के अनुसार 2019 की शुरुआत में ऑनलाइन 7,964 डीपफेक वीडियो अपलोड थे, और सिर्फ नौ महीने बाद, यह आंकड़ा 14,678 हो गया। डीपटेर्स (Deeptrace) रिपोर्ट के अनुसार, सितंबर 2019 तक, 96% डीपफेक ऑनलाइन वीडियो अश्लील थे। विशेष रूप से पोर्नोग्राफ़ी (Pornography) से संबंधित थे। डीप फेक का दुरुपयोग बड़े पैमाने पर पोर्नोग्राफी के मामलों में देखा गया है जो भावनात्मक और व्यक्तिगत प्रतिष्ठा को क्षति पहुँचाने के साथ कुछ मामलों में व्यक्तिगत हिंसा को भी बढ़ावा देता है। पिछले कुछ समय से भारत में भी ऐसे मामलों में तीव्र वृद्धि देखी गई है। लगभग एक दर्जन वेबसाइटें (Website) हैं जो भारतीय महिलाओं की डीप फेक अश्लील चित्रों की मेजबानी करती हैं। भारत ने कथित रूप से पीडोफाइल (Paedophile) सामग्री की मेजबानी के लिए 2015 से 800 से अधिक वयस्क वेबसाइटों पर प्रतिबंध लगा दिया है, लेकिन ये डीपफेक वीडियो कुछ वेबसाइटों पर अभी भी हैं, और अब तक, इनसे निपटने के लिये कोई रणनीति नहीं बनाई गई है। इस तकनीक का उपयोग महिलाओं और राजनेताओं के अश्लील फोटो और पोर्न वीडियो बनाने में हो रहा है जो कि एक चिंता का विषय भी है। भारत में लोकप्रिय अभिनेत्रियां और राजनीतिक इसका शिकार हो रहे हैं। इस तरह के वीडियो दिसंबर 2018 में 7,964 से बढ़कर जून 2020 तक 49,081 हो गए थे। इनमें से लगभग 96% वीडियो अश्लील थे। हाल के महीनों में, टेलीग्राम (Telegram) जैसे मैसेजिंग ऐप (messaging apps) पर भी बॉट्स (bots) हुए हैं जो पूरी तरह से कपड़े पहने व्यक्ति की छवि को उनकी नग्न तस्वीर में बदल सकते हैं। सेंसिटी रिपोर्ट (Sensity report) के अनुसार, भारतीयों सहित लगभग 680000 लोगों को ऐसे बॉट का शिकार बन जाते है। अक्टूबर में, बॉम्बे हाई कोर्ट (Bombay High Court) ने सूचना और प्रसारण मंत्रालय (Ministry of Information and Broadcasting ) को इस पर ध्यान देने का निर्देश दिया था। डीप फेक लोकतांत्रिक संवाद को बदलने और महत्त्वपूर्ण संस्थानों के प्रति लोगों में अविश्वास फैलाने के साथ लोकतंत्र को कमज़ोर करने के प्रयासों को बढ़ावा दे सकता है। इसका प्रयोग चुनावों में जातिगत द्वेष, चुनाव परिणामों की अस्वीकार्यता या अन्य प्रकार की गलत सूचनाओं के लिये किया जा सकता है, जो एक लोकतांत्रिक व्यवस्था के लिये बड़ी चुनौती बन सकता है। हालांकि डीपफेक का उपयोग सकारात्मक तरीकों से किया जा सकता है, जैसे कि कला, अभिव्यक्ति, पहुंच और व्यवसाय के रूप में। परंतु इसका उपयोग जिस तरह से अवैध और बेकार के कामों में हो रहा है उससे इस तकनीक का कोई भविष्य नहीं दिखाई देता है।
कृत्रिम बुद्धिमत्ता का निर्माण हमारी सभ्यता के इतिहास की सबसे महत्त्वपूर्ण खोज में से है। लेकिन अगर इसके जोखिम से बचने का तरीका नहीं ढूँढा, तो इसके गंभीर परिणाम हो सकते हैं। फिलहाल हम नहीं जानते कि इसका स्वरूप आगे क्या होगा, परंतु इतना तो है कि डीप फेक और दुष्प्रचार जैसी चुनौतियों से निपटते हुए अभिव्यक्ति की स्वतंत्रता को सुरक्षित रखने हेतु सभी हितधारकों के साथ मिलकर एक बहुपक्षीय दृष्टिकोण को अपनाना बहुत ही आवश्यक है। विधायी नियमों, प्लेटफॉर्म नीतियों, प्रौद्योगिकी हस्तक्षेप और मीडिया साक्षरता के क्षेत्र में साझा प्रयास डीप फेक के खतरे को कम करने के लिये नैतिक एवं प्रभावी समाधान प्रदान कर सकता है।
संदर्भ:
https://bit.ly/3riZE8x
https://bit.ly/397pDt0
https://bit.ly/315ZgiN
https://bit.ly/313EoJ9
https://bit.ly/2QpxBY1
चित्र संदर्भ:
मुख्य तस्वीर में डीप फेक मार्क जकरबर्ग को दिखाया गया है। (बीसीसी)
दूसरी तस्वीर में डीप फेक ट्रम्प को दिखाया गया है। (PCMag)
तीसरी तस्वीर में डीप फेक ओबामा को दिखाया गया है। (वाणिज्यिक अपील)