Artificial intelligence (AI) कम्प्यूटर के क्षेत्र में डीपफेक बन गया है बड़ा खतरा

Artificial intelligence (AI) कम्प्यूटर के क्षेत्र में डीपफेक बन गया है बड़ा खतरा

किसी का चेहरा – किसी का नाम ( डीपफेक)

AI (एआइ) की मदद से तैयार किए जाने वाले कंटेंट को डीपफेक कहा जाता है। इसमें वीडियो और आडियो दोनों शामिल होते हैं। एआइ की मदद से एक रियल वीडियो में दूसरे व्यक्ति के चेहरे को फिट करके वीडियो बनाया जाता है। यानी वीडियो में किसी की आवाज और चेहरा लिया जाता है और किसी दूसरे व्यक्ति का नाम। यह बिल्कुल ऐसे प्रतीत होते हैं कि जैसे इस वीडियो को उसमें शामिल व्यक्ति ने खुद ही तैयार किया है।


फेस स्वैपिग तकनीक से बनता है डीपफेक कंटेंट

डीपफेक बनाने के कई तरीके हैं। लेकिन सबसे आम तरीके में डीप न्यूरल नेटवर्क का इस्तेमाल करते हुए फेस स्वैपिंग तकनीक का उपयोग किया जाता है। इसके लिए पहले डीपफेक के आधार के तौर पर इस्तेमाल के लिए टारगेट वीडियो की जरूरत होती है और इसके बाद उस व्यक्ति की वीडियो क्लिप का कलेक्शन चाहिए होता है जिसे आप टारगेट वीडियो में
डालना चाहते हैं। वीडियो एक दूसरे से पूरी तरह से अलग हो सकते हैं। प्रोग्राम कई कोणों और स्थितियों से अंदाजा लगाता है कि व्यक्ति कैसा दिखता है और फिर साझा फीचर्स ढूंदकर उस व्यक्ति को टारगेट वीडियो में दूसरे व्यक्ति की जगह पर डाल देता है। इसके बाद जेनरेटिव एडवरसैरियल नेटवर्क (जेएएन) की मदद से इसे मिक्स किया जाता है।

एप का प्रभाव

कई एप नए लोगों के लिए भी डीपफेक बनाना आसान बना देते हैं। जैसे चीनी एप जेडएओ, डीपफेस लैब, फेकएप और फेस स्वैप । यही नहीं ओपन सोर्स डेवलपमेंट कम्युनिटी GitHub पर बड़ी संख्या में डीपफेक साफ्टवेयर उपलब्ध हैं।

कैसे पहचानें डीपफेक

  • आप त्वचा या बालों में किसी तरह की समस्या पर गौर करें। आप चेहरे को ध्यान से देख सकते हैं कि ये कुछ ज्यादा धुंधला तो नहीं लग रहा है।

आम तौर पर डीपफेक अल्गारिद्म फेक वीडियो के लिए माडल के तौर पर इस्तेमाल की गई क्लिप की लाइटिंग को ही लेता है। लेकिन टारगेट वीडियो की लाइटिंग से इसे मिलाने पर फर्क दिख सकता है।

अगर वीडियो फेक है लेकिन मूल आडियो के साथ सावधानी से छेड़छाड़ नहीं की गई है तो हो सकता है कि व्यक्ति का आडियो मैच न करे।

  • पत्रकार और शोध करने वाले इमेज का सही सोर्स चेक करने के लिए रिवर्स इमेज सर्च तकनीक का इस्तेमाल करते हैं। आप भी इस तकनीक का इस्तेमाल कर सकते हैं। आपको ये भी देखना चाहिए कि इमेज किसने पोस्ट की है, कहां से पोस्ट की गई है और इमेज पोस्ट करने का कोई मतलब बनता है या नहीं।

लेखक की आवाज

  1. डीपफेक का खतरा बहुत बड़ा है। डीपफेक की मदद से भारत की सामाजिक और राजनीतिक स्थिरता को नुकसान पहुंचाया जा सकता है। खास कर ऐसे समय में जब साइबर वारफेयर एक हकीकत है, इससे राष्ट्रीय सुरक्षा को भी खतरा हो सकता है। ऐसे में डीपफेक पर अंकुश लगाना बहुत जरूरी है।
  2. डीपफेक न सिर्फ जानी-मानी हस्तियों को निशाना बना सकता है बल्कि इससे आम लोगों को भी खतरा है। साइबर अपराध के जरिये वित्तीय धोखाधड़ी आम है। ऐसे में डीपफेक साइबर अपराधियों के लिए एक घातक हथियार बन गया है। आम लोगों को इस खतरे के प्रति जागरूक करना जरूरी है तभी हम इसका मुकाबला कर पाएंगे।
  3. डीपफेक अपलोड करने वालों और प्लेटफार्म दोनों पर जुर्माना लगाने से डीपफेक पर एक हद तक ही अंकुश लगाया जा सकता है। इसे पूरी तरह से रोकने के लिए के लिए न सिर्फ कड़े कानूनों की जरूरत है बल्कि कानून लागू करने एजेंसियों को भी सक्रिय तौर पर इस पर रोक लगाने के लिए कदम उठाने होंगे।

www.csaccept.com

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *