बिहार उत्तरप्रदेश मध्यप्रदेश उत्तराखंड झारखंड छत्तीसगढ़ राजस्थान पंजाब हरियाणा हिमाचल प्रदेश दिल्ली पश्चिम बंगाल

LATEST NEWS

Home  ›  Region  ›  

AI की दुनिया में हथियार के तौर पर डीपफेक का बढ़ता इस्तेमाल, 'डीपफेक' वीडियो, सिर्फ एक घटना नहीं, बड़े खतरे की है घंटी

AI की दुनिया में हथियार के तौर पर डीपफेक का बढ़ता इस्तेमाल,  'डीपफेक' वीडियो,  सिर्फ एक घटना नहीं, बड़े खतरे की है घंटी

PATNA- रश्मिका मंदाना और कैटरिना कैफ के हालिया डीपफेक वीडियोज बताते हैं कि हम कितने लाचार और बेबस हैं. एआई के सामने हमारी कुछ नहीं चलती. हम उसके शिकार हैं. एआई के जमाने में ऐसा डीपफेक बनाना कोई बड़ी बात नहीं रह गई है जिसे असल मान लिया जाए. सूचना माध्यमों में डीपफेक शब्द चर्चा में है. डीपफेक तकनीक के शिकार होने के मामले अहर्निश सुर्खियां बन रहे हैं. इसपर पिछले दिनों प्रधानमंत्री भी चिंता जता चुके हैं. अब सरकार भी सोशल मीडिया कंपनियों को चेता चुकी है कि वे इसके लिये जवाबदेह होंगे और उन्हें सेफ हार्बर नहीं मिलेगा. डीपफेक तकनीक के गलत इस्तेमाल से बने सेलिब्रिटीज के भी कई डीपफेक वीडियो वायरल हुए हैं. इसमें बॉलीवुड अभिनेत्रा रश्मिका मंदाना, काजोल और कटरीना आदि के नाम सामने आए हैं. पहले पूर्व अमेरिकी राष्ट्रपति बराक ओबामा और मेटा के मुखिया मार्क जुकरबर्ग भी इसके लेपेटे में आ चुके हैं. डीपफेक बनाने में कृत्रिम बुद्धिमत्ता के जरिये किसी की फर्जी तस्वीर या वीडियो बनाया जाता है. इसमें कृत्रिम बुद्धिमता के एक प्रकार डीप लर्निंग का प्रयोग किया जाता है, जिसके चलते इसे डीपफेक कहा जाता है.

 दुनिया में अश्लील सामग्री तैयार करने में बड़े पैमाने पर इस तकनीक का प्रयोग किया जाता रहा है. इस मामले में तकनीकी विस्तार से समाज पर खासा प्रतिकूल असर पड़ रहा है. हर साल हजारों की संख्या में डीपफेक वीडियो इंटरनेट पर प्रसारित होते रहते हैं. इस तकनीक का प्रयोग महिलाओं की छवि को नुकसान पहुंचाने के लिये किया जाता रहा है, जिसके लिये फिल्म और संगीत से जुड़ी हस्तियों को ज्यादा निशाना बनाया जाता है. कुछ साल पहले भारत में फर्जी वीडियो बनाकर संप्रदाय विशेष के लोगों को टारगेट किया गया था. पुरुष भी इस भ्रमजाल का शिकार बनते हैं.

 कृत्रिम बुद्धिमत्ता के चलते डीपफेक इतनी चतुराई से तैयार किया जाता है कि सही-गलत का भेद करना मुश्किल हो जाता है, जिसका उपयोग किसी की प्रतिष्ठा को ठेस पहुंचाने के लिये किया जाता है. विकसित तकनीक के जरिये वीडियो और ऑडियो के सही-गलत का भेद करना मुश्किल हो जाता है. ऐसे में यदि इसका दुरुपयोग धार्मिक व सांप्रदायिक मामलों में किया जाता है तो समाज में अराजकता की स्थिति पैदा हो सकती है। समस्या ये है कि डीपफेक तकनीक के जरिये ऑडियो का भी डीपफेक तैयार किया जाता है बड़ी हस्तियों की आवाज बदलने के लिये वायस क्लोन्स का इस्तेमाल किया जाता है. 

आशंका है कि भविष्य में चुनाव के दौरान मतदाताओं को भ्रमित करने के प्रयास किये जा सकते हैं. राजनेताओं के डीपफेक वीडियो प्रसारित करने से राजनीतिक दल की संभावनाओं को प्रभावित करने की आशंका भी पैदा हो सकती है. यही वजह है कि पिछले दिनों प्रधानमंत्री ने इसे देश के सामने मौजूद बड़े खतरों के रूप में दर्शाया और समाज में अराजकता फैलने की आशंका व्यक्त की. 

डीपफेक अंग्रेजी के दो शब्दों के संयोजन से बना है. पहला, डीप और दूसरा फेक. डीप लर्निंग में सबसे पहले नई तकनीकों, खास कर जनरेटिंग एडवर्सरियल नेटवर्क जिसे जीएएन भी कहते हैं, उसकी स्टडी जरूरी है. जीएएन में दो नेटवर्क होते हैं, जिसमें एक जेनरेट यानी नई चीजें प्रोड्यूस करता है, जबकि दूसरा दोनों के बीच के फर्क का पता करता है. इसके बाद इन दोनों की मदद से एक ऐसा सिंथेटिक यानी बनावटी डेटा जेनरेट किया जाता है, जो असल से काफी हद तक मिलता जुलता हो, तो वही डीप फेक है. साल 2014 में पहली बार इयन गुडफ्लो और उनकी टीम ने इस तकनीक को विकसित किया था. धीरे-धीरे इस तकनीक में नई-नई तब्दीलियां की जाती रहीं. साल 1997 में क्रिस्टोफ ब्रेगलर, मिशेल कोवेल और मैल्कम स्लेनी ने इस तकनीक की मदद से एक वीडियो में विजुअल से छेड़छाड़ की और एंकर द्वारा बोले जा रहे शब्दों को बदल दिया था. इस एक प्रयोग के तौर पर किया गया था.

Editor's Picks