x
खेलटेक्नोलॉजी

सचिन के बाद अब कोहली डीपफेक वीडियो का बने शिकार,सट्टेबाजी एप का प्रमोशन करते नजर आए क्रिकेटर


सरकारी योजना के लिए जुड़े Join Now
खबरें Telegram पर पाने के लिए जुड़े Join Now

नई दिल्लीः भारतीय क्रिकेट टीम के पूर्व कप्तान विराट कोहली उन मशहूर हस्तियों की लिस्ट में शामिल हो गए हैं जिनके डीपफेक वीडियो सामने आए हैं. विराट कोहली से पहले मास्टर ब्लास्टर सचिन तेंदुलकर का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें सचिन सट्टेबाजी ऐप को बढ़ावा देते हुए नजर आ रहे थे. सचिन तेंदुलकर ने इस वीडियो के वायरल होने के बाद कड़े एक्शन की बात कही थी. टीम इंडिया के स्टार बल्लेबाज विराट कोहली के साथ भी ऐसा ही हुआ है. कोहली का एक वीडियो वायरल हैं, जिसमें दाएं हाथ के बल्लेबाज सट्टेबाजी ऐप का प्रचार करते दिख रहे हैं, इस वीडियो ने सभी को चौंका दिया है. इस वीडियो में क्रिकेटर को एक ऐप के बारे में बात करते देखा जा सकता है जिसके जरिए लोग तेजी से पैसा कमा सकते हैं.

Virat Kohli भी हुए डीपफेक वीडियो का शिकार

दरअसल, विराट कोहली को लेकर वायरल हुई डीपफेक वीडियो में देखा जा सकता है कि कोहली हिंदी में बोल रहे है और वह सट्टेबाजी ऐप को सपोर्ट कर रहे है। वीडियो को रियल बनाने के लिए फर्जी यूजर ने जाने-माने टीवी एंकर को भी क्लिप में जोड़ा है, ताकि लोगों को यह वीडियो असली लगे। इस विज्ञापन में ऐसा लग रहा है कि कोहली न्यूज चैनल को इंटरव्यू दे रहे है, जिसमें ये दावा किया गया है कि कोहली ने कम से कम निवेश के जरिए बड़ी कमाई की है, जो दर्शकों को आसान पैसे कमाने के वादे के साथ अपनी ओर खींच रहा है।

हैरान करने वाली बात यह थी कि फर्जी वीडियो में न सिर्फ विराट का चेहरा बल्कि उनकी आवाज की भी सफलतापूर्वक नकल की गई है. इससे पता चलता है कि आर्टिफिशल इंटेलिजेंस कितना खतरनाक और भ्रामक हो सकता है. सिर्फ कोहली ही नहीं, बल्कि वीडियो में एक न्यूज एंकर को भी आर्टिफिशल इंटेलिजेंस का उपयोग करके बनाया गया है. इससे पहले, लोगों को ऐसे फर्जी वीडियो के प्रति सचेत करने के लिए सोशल मीडिया में सुधार लाने का आह्वान किया गया था.

सचिन तेंदुलकर भी डीपफेक के झांसे में फंसे

कोहली से पहले महान क्रिकेटर सचिन तेंदुलकर की एक क्लिव को भी एडिट किया गया, जिसमें वह एक गेमिंग ऐप को प्रमोट करते हुए दिखे। इस वीडियो पर तेंदुलकर काफी नाराज हो गए थे।सचिन तेंदुलकर ने सोशल मीडिया पर पोस्ट किया था,”सोशल मीडिया प्लेटफार्मों को शिकायतों के प्रति सतर्क और उत्तरदायी होने की आवश्यकता है. गलत सूचना और डीपफेक के प्रसार को रोकने के लिए उनकी ओर से त्वरित कार्रवाई महत्वपूर्ण है.”तेंदुलकर की वीडियो में दिखाया गया था कि उनकी बेटी सारा तेंदुलकर इस ऐप को रोज इस्तेमाल करके हर दिन 180000 रुपये कमा रही है। इस पर तेंदुलकर ने लोगों को सच्चाई बताते हुए कहा कि ये सभी वीडियो फेक है। यह देखकर काफी दुख हो रहा है कि टेक्नोलॉजी का किस तरह से दुर्प्रयोग हो रहा है। मैं सभी से रिक्वेस्ट करता हूं कि ऐसी वीडियो को रिपोर्ट करें और इन ऐप से बचकर रहे।

भारत सरकार डीपफेक को लेकर नए नियमों की योजना बना रही है

भारत सरकार कथित तौर पर डीपफेक को लेकर नए नियमों की योजना बना रही है जो डीपफेक होस्ट करने वाले निर्माता और प्लेटफ़ॉर्म दोनों पर जुर्माना लगा सकती है. आईटी और दूरसंचार मंत्री अश्विनी वैश्य द्वारा डीपफेक को “लोकतंत्र के लिए ख़तरा” बताया गया था. कुछ मशहूर हस्तियों द्वारा अपने चेहरों के साथ किसी अन्य वीडियो में छेड़छाड़ किए जाने की शिकायत के बीच, नए सुरक्षा नियमों पर विचार किया जा रहा है, जिसमें वॉटरमार्किंग एआई-जनित सामग्री, डीप फेक डिटेक्शन, डेटा पूर्वाग्रह के लिए नियम, गोपनीयता और एकाग्रता के खिलाफ सुरक्षा जैसे उपायों पर गौर किया जाएगा.

क्या होता है डीपफेक?

डीपफेक वीडियो और वीडियो दोनों रूप में हो सकता है। इसे एक स्पेशल मशीन लर्निंग का इस्तेमाल करके बनाया जाता है जिसे डीप लर्निंग कहा जाता है। डीप लर्निंग में कंप्यूटर को दो वीडियोज या फोटो दिए जाते हैं जिन्हें देखकर वह खुद ही दोनों वीडियो या फोटो को एक ही जैसा बनाता है।यह ठीक उसी तरह है जैसे बच्चा किसी चीज की नकल करता है। इस तरह के फोटो वीडियोज में हिडेन लेयर्स होते हैं जिन्हें सिर्फ एडिटिंग सॉफ्टवेयर से ही देखा जाता है। एक लाइन में कहें तो डीपफेक, रियल इमेज-वीडियोज को बेहतर रियल फेक फोटो-वीडियोज में बदलने की एक प्रक्रिया है। डीपफेक फोटो-वीडियोज फेक होते हुए भी रियल नजर आते हैं।बहुत ही आसान भाषा में कहें तो डीपफेक एक एडिटेड वीडियो होता है जिसमें किसी अन्य के चेहरे को किसी अन्य के चेहरे से बदल दिया जाता है। डीपफेक वीडियोज इतने सटीक होते हैं कि आप इन्हें आसानी से पहचान नहीं सकते। डीपफेक वीडियो बनाने के लिए आर्टिफिशियल इंटेलिजेंस (AI) और मशीन लर्निंग की भी मदद ली जाती है।

कैसे बनते हैं डीपफेक?

Deepfakes दो नेटवर्क की मदद से बनता है जिनमें एक इनकोडर होता है और दूसरा डीकोडर नेटवर्क होता है। इनकोडर नेटवर्क सोर्स कंटेंट (असली वीडियो) को एनालाइज करता है और फिर डाटा को डीकोडर नेटवर्क को भेजता है। उसके बाद फाइनल आउटपुट निकलता है जो कि हूबहू असली जैसा है लेकिन वास्तव में वह फेक होता है। इसके लिए सिर्फ एक वीडियो या वीडियो की जरूरत होती है। डीपफेक के लिए कई वेबसाइट्स और एप हैं जहां लोग डीपफेक वीडियोज बना रहे हैं।

डीपफेक वीडियो कैसे पहचानें?

इस तरह के फोटो-वीडियोज को पहचानना आसान तो नहीं है लेकिन नामुमकिन भी नहीं है। इन्हें पहचानने के लिए आपको वीडियो को बहुत ही बारिकी से देखना होगा। खासतौर पर चेहरे के एक्सप्रेशन, आंखों की मूवमेंट और बॉडी स्टाइल पर ध्यान देना होगा। इसके अलावा बॉडी कलर से भी आप इन्हें पहचान सकते हैं। आमतौर पर ऐसे वीडियोज में चेहरे और बॉडी का कलर मैच नहीं करता है।इसके अलावा लिप सिंकिंग से भी इस तरह के वीडियोज की पहचान की जा सकती है। ऐसे वीडियोज कशन और एक्स्ट्रा ब्राइटनेस से भी पहचान सकते हैं। इसके अलावा खुद ही समझ से भी आप यह तय कर सकते हैं कि यह वीडियो असली है या नहीं। उदाहरण के तौर पर बराक ओबामा का भोजपुरी गाने पर डांस का वीडियो फर्जी हो सकता है।

कैसे करें नकली वीडियो की पहचान?

आपको बता दें कि विराट कोहली से पहले सचिन तेंदुलकर का भी ऐसा ही एक वीडियो वायरल हुआ था, जिसमें सचिन भी एक मनी मेकिंग प्लेटफॉर्म का प्रमोशन करते हुए नज़र आ रहे थे, लेकिन फिर सचिन ने अपने आधिकारिक ट्विटर अकाउंट के जरिए खुद अपनी डीपफेक वीडियो को शेयर करके जानकारी दी थी कि यह एक नकली वीडियो है. इस तरह की नकली वीडियो पहली नज़र में आपको असली लग सकती है, लेकिन अगर आप गौर से बार-बार देखेंगे तो खुद समझ जाएंगे कि उस वीडियो में कुछ गलत है. डीपफेक वीडियो को पहचानने के लिए आपको वीडियो में दिख रहे इंसान के एक्सप्रेशन्स को बार-बार गौर से देखना होगा.

Back to top button