TRAP OF DEEPFAKE: पंजाब के CM भगवंत मान पर AI से हमला ,रश्मिका मंदाना, कैटरीना कैफ और PM मोदी तक नहीं बचे डीपफेक वीडियोज से,असली और नकली में फर्क करना मुश्किल

पंजाब के CM भगवंत मान का इस समय जिस तरीके से डीप फेक वीडियो वायरल हुआ एक बार फिर से AI के गलत इस्तेमाल को लेकर चर्चा छिड़ गई है। CM भगवंत मान पहले ऐसे शख्स नहीं है जिनकी छवि को खराब करने की कोशिश की गई है। इस लिस्ट मे तो नामी हस्तियों के नाम भी शामिल हैं।

डीपफेक आज के समय मे वो बला बन चुका है जिसने नए दौर में तकरीबन हर इंसान की इज्जत और शख्सियत दांव पर लगा दी है ।तमाम किस्म के एडिटिंग सॉफ्टवेयर और ऑर्टिफिशियल इंटेलिजेंस की मदद से आज किसी भी तस्वीर या वीडियो को मैनिपुलेट कर या उससे छेड़छाड़ कर उसे बिल्कुल नए रूप में ढाल देना कोई मुश्किल काम नहीं है। तस्वीर भले किसी और की हो, उसे डीपफेक के जरिए कुछ इस तरह से एडिट किया जा सकता है कि देख कर फर्क कर पाना ही मुश्किल हो जाए कि कौन सी तस्वीर असली है और कौन सी नकली है? पंजाब के CM भगवंत मान के मामले में भी ऐसा की कुछ हुआ। जगमन समरा नाम के फेसबुक अकाउंट से एक विवादित वीडियो शेयर किया गया था। जिसका मकसद पंजाब के CM की छवि को धूमिल करना था। आरोपी जगमन जगमन समरा, जो इस समय कनाडा में रह रहा है, अपने फेसबुक अकाउंट से कई AI जनरेटेड वीडियो पोस्ट कर रहा था।ये वीडियो न केवल भ्रामक थे, बल्कि मुख्यमंत्री के खिलाफ आपत्तिजनक व आपराधिक सामग्री भी शामिल थी।

डीप फेक का ये जाल इस कदर फैल चुका है कि इससे तो रश्मिका मंदाना, कैटरीना कैफ, देश के प्रधानमंत्री नरेंद्र मोदी तक नहीं बच पाए। वीडियोज इस तरीके से एडिट की गई थी कि देखने वाले को पता नहीं चला कि जो वीडियो वो देख रहा है असली है या नहीं है।

कैटरीना कैफ की उस डीपफेक तस्वीर की बात करते हैं, जिसने सोशल मीडिया में सनसनी फैला रखी थी।  तस्वीर में कैटरीना बिकिनी पहने हुए एक को-एक्टर से फाइट करती हुई दिख रही थी, लेकिन असल में टाइगर 3 फिल्म का सीन था  जिसमें कैटरीना बिकिनी में नहीं, बल्कि टावल पहने हुए ये सीन कर चुकी थी, लेकिन किसी ने AI के जरिए कैटरीना की तस्वीर से टावल हटा कर उसे बिकिनी में बदल दिया था । रश्मिका मंदाना के साथ भी ऐसा ही कुछ हुआ था। डीपफेक वीडियो ने रश्मिक मंडाना को जोर का झटका देने का काम किया था और नौबत तो यहां तक आन पड़ी थी उन्हें इस वीडियो को लेकर अपनी सफाई देनी पड़ी।रश्मिका ने ट्वीट कर बताया कि इस वीडियो से उन्हें बहुत धक्का लगा है।अगर ऐसा कोई वीडियो उनके स्कूल या कॉलेज में रहने के दौरान किसी ने शेयर कर दिया होता, तो उन्हें नहीं पता कि वो तब उन हालात से कैसे मुकाबला करतीं? देश के प्रधानमंत्री नरेंद्र मोदी की गरबा खेलते हुए एक डीपफेक वीडियो वायरल हुआ था। वीडियो में प्रधानमंत्री मोदी की तरह दिखने वाला एक शख्स कुछ महिलाओं के साथ डांडिया खेलता हुआ दिखाई देता है. देखते ही देखते सोशल मीडिया पर लोग इस वीडियो को ले उड़ते हैं।कोई इस वीडियो के बहाने PM मोदी के डांसिंग स्किल की तारीफ करने लगता है, तो कोई इस वीडियो के बहाने PM मोदी को निशाने पर ले रहा था ।

अब सवाल है कि अगर ऐसी कोई तस्वीर या वीडियो सामने आ जाए, तो ये कैसे समझें कि ये डीपफेक है या नहीं? तो सबसे पहले बात डीपफेक और ऑरिजनल के बीच के फ़र्क की।डीपफेक की पहचान करने के लिए ऐसी तस्वीरों या वीडियोज को ध्यान से देखना जरूरी है।

अगर आप किसी वीडियो की जांच कर रहे हैं, तो सबसे पहले आपको उस शख्स के फेशियल एक्सप्रेशन को बारीकी से देखना और समझना होगा और फिर लिप सिंक पर भी ध्यान देना होगा। फेशियल एक्सप्रेशन यानी चेहरे की भाव भंगिमाएं, जबकि लिप सिंक मतलब जो शब्द बोले जा रहे हैं, वीडियो में दिख रहे व्यक्ति के होंठों की बनावट उसी रूप में हो रही है या नहीं। इसके अलावा तस्वीरों को ज़ूम करके भी ऐसे वीडियोज और स्टिल की सच्चाई जानी जान सकती है। असली और नकली तस्वीर का फर्क समझ में आ जाता है। इन सबके अलावा रिवर्स इमेज सर्च भी किया जा सकता है।किसी डीपफेक वीडियो का स्क्रीनशॉट लेकर उसे गूगल पर सर्च किया जा सकता है। अगर उस फोटो से मिलता कोई कंटेंट ऑनलाइन मौजूद होगा, तो गूगल पर इसका रिजल्ट मिल जाएगा। इसके अलावा आंखों का मूवमेंट, बैकग्राउंड और दूसरी डिटेल्स भी चेक की जा सकती है।

खास बात ये है कि शुरू में डीप फेक तकनीक का इस्तेमाल नकारात्मक तरीके से नहीं होता था और ना ही इससे कोई नुकसान था. मसलन किसी फिल्म में किसी किरदार का या किसी खास हालत का पिक्चराइजेशन करना हो, लेकिन उसके लिए रिसोर्स ना हो, तो डीप फेक तकनीक की मदद ले ली जाती थी।लेकिन जैसे-जैसे इस तकनीक ने तरक्की की, इस काम में बारीकी आती रही और असली नकली का फर्क करना भी मुश्किल होने लगा. और अब जब ये तकनीक सबके हाथों में हैं, इसका धड़ल्ले से इस्तेमाल शुरू हो चुका है।

Exit mobile version