AI की दुनिया में हथियार के तौर पर डीपफेक का बढ़ता इस्तेमाल, 'डीपफेक' वीडियो, सिर्फ एक घटना नहीं, बड़े खतरे की है घंटी

AI की दुनिया में हथियार के तौर पर डीपफेक का बढ़ता इस्तेमाल,  'डीपफेक' वीडियो,  सिर्फ एक घटना नहीं, बड़े खतरे की है घंटी

PATNA- रश्मिका मंदाना और कैटरिना कैफ के हालिया डीपफेक वीडियोज बताते हैं कि हम कितने लाचार और बेबस हैं. एआई के सामने हमारी कुछ नहीं चलती. हम उसके शिकार हैं. एआई के जमाने में ऐसा डीपफेक बनाना कोई बड़ी बात नहीं रह गई है जिसे असल मान लिया जाए. सूचना माध्यमों में डीपफेक शब्द चर्चा में है. डीपफेक तकनीक के शिकार होने के मामले अहर्निश सुर्खियां बन रहे हैं. इसपर पिछले दिनों प्रधानमंत्री भी चिंता जता चुके हैं. अब सरकार भी सोशल मीडिया कंपनियों को चेता चुकी है कि वे इसके लिये जवाबदेह होंगे और उन्हें सेफ हार्बर नहीं मिलेगा. डीपफेक तकनीक के गलत इस्तेमाल से बने सेलिब्रिटीज के भी कई डीपफेक वीडियो वायरल हुए हैं. इसमें बॉलीवुड अभिनेत्रा रश्मिका मंदाना, काजोल और कटरीना आदि के नाम सामने आए हैं. पहले पूर्व अमेरिकी राष्ट्रपति बराक ओबामा और मेटा के मुखिया मार्क जुकरबर्ग भी इसके लेपेटे में आ चुके हैं. डीपफेक बनाने में कृत्रिम बुद्धिमत्ता के जरिये किसी की फर्जी तस्वीर या वीडियो बनाया जाता है. इसमें कृत्रिम बुद्धिमता के एक प्रकार डीप लर्निंग का प्रयोग किया जाता है, जिसके चलते इसे डीपफेक कहा जाता है.

 दुनिया में अश्लील सामग्री तैयार करने में बड़े पैमाने पर इस तकनीक का प्रयोग किया जाता रहा है. इस मामले में तकनीकी विस्तार से समाज पर खासा प्रतिकूल असर पड़ रहा है. हर साल हजारों की संख्या में डीपफेक वीडियो इंटरनेट पर प्रसारित होते रहते हैं. इस तकनीक का प्रयोग महिलाओं की छवि को नुकसान पहुंचाने के लिये किया जाता रहा है, जिसके लिये फिल्म और संगीत से जुड़ी हस्तियों को ज्यादा निशाना बनाया जाता है. कुछ साल पहले भारत में फर्जी वीडियो बनाकर संप्रदाय विशेष के लोगों को टारगेट किया गया था. पुरुष भी इस भ्रमजाल का शिकार बनते हैं.

 कृत्रिम बुद्धिमत्ता के चलते डीपफेक इतनी चतुराई से तैयार किया जाता है कि सही-गलत का भेद करना मुश्किल हो जाता है, जिसका उपयोग किसी की प्रतिष्ठा को ठेस पहुंचाने के लिये किया जाता है. विकसित तकनीक के जरिये वीडियो और ऑडियो के सही-गलत का भेद करना मुश्किल हो जाता है. ऐसे में यदि इसका दुरुपयोग धार्मिक व सांप्रदायिक मामलों में किया जाता है तो समाज में अराजकता की स्थिति पैदा हो सकती है। समस्या ये है कि डीपफेक तकनीक के जरिये ऑडियो का भी डीपफेक तैयार किया जाता है बड़ी हस्तियों की आवाज बदलने के लिये वायस क्लोन्स का इस्तेमाल किया जाता है. 

आशंका है कि भविष्य में चुनाव के दौरान मतदाताओं को भ्रमित करने के प्रयास किये जा सकते हैं. राजनेताओं के डीपफेक वीडियो प्रसारित करने से राजनीतिक दल की संभावनाओं को प्रभावित करने की आशंका भी पैदा हो सकती है. यही वजह है कि पिछले दिनों प्रधानमंत्री ने इसे देश के सामने मौजूद बड़े खतरों के रूप में दर्शाया और समाज में अराजकता फैलने की आशंका व्यक्त की. 

डीपफेक अंग्रेजी के दो शब्दों के संयोजन से बना है. पहला, डीप और दूसरा फेक. डीप लर्निंग में सबसे पहले नई तकनीकों, खास कर जनरेटिंग एडवर्सरियल नेटवर्क जिसे जीएएन भी कहते हैं, उसकी स्टडी जरूरी है. जीएएन में दो नेटवर्क होते हैं, जिसमें एक जेनरेट यानी नई चीजें प्रोड्यूस करता है, जबकि दूसरा दोनों के बीच के फर्क का पता करता है. इसके बाद इन दोनों की मदद से एक ऐसा सिंथेटिक यानी बनावटी डेटा जेनरेट किया जाता है, जो असल से काफी हद तक मिलता जुलता हो, तो वही डीप फेक है. साल 2014 में पहली बार इयन गुडफ्लो और उनकी टीम ने इस तकनीक को विकसित किया था. धीरे-धीरे इस तकनीक में नई-नई तब्दीलियां की जाती रहीं. साल 1997 में क्रिस्टोफ ब्रेगलर, मिशेल कोवेल और मैल्कम स्लेनी ने इस तकनीक की मदद से एक वीडियो में विजुअल से छेड़छाड़ की और एंकर द्वारा बोले जा रहे शब्दों को बदल दिया था. इस एक प्रयोग के तौर पर किया गया था.

Editor's Picks