डीपफेक के चल रहे खतरे से सावधान रहें, सिर्फ मशहूर हस्तियां ही नही आप भी हो सकते हैं प्रभावित

जेनरेटिवएआई (जेनएआई) के उपयोग के साथ, ‘फर्जी समाचार’ और सच की दुनिया और भी धुंधली हो गई है। पिछले हफ्ते, राष्ट्रपति जो बिडेन के ‘फर्जी’ वीडियो के परिणामस्वरूप उनके प्रशासन ने एआई ढांचे के प्रशासन से संबंधित एक कार्यकारी आदेश जारी किया था। इस सप्ताह की शुरुआत में रश्मिका मंदाना के नकली वीडियो ने बॉलीवुड में तूफान ला दिया, बिरादरी के वरिष्ठ सदस्यों ने कानूनी कार्रवाई की मांग की।

जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) का उपयोग करते हुए डीपफेक कई वर्षों से मौजूद हैं। हालाँकि, GenAI के उद्भव के साथ, वे अधिक जीवंत हो गए हैं और बड़े पैमाने पर उत्पादन करना बहुत आसान हो गया है।

निश्चित रूप से, नकली वीडियो मशहूर हस्तियों और राजनेताओं के होंगे। भारत में कई चुनाव नजदीक होने के कारण, राजनेता और राजनीतिक दल ऐसे फर्जी वीडियो के निर्माता और प्राप्तकर्ता दोनों हो सकते हैं। इनका उपयोग गलत सूचना फैलाने, राजनीतिक विरोधियों को निशाने पर लेने या यहां तक कि मतदाताओं को प्रभावित करने के लिए एक संपूर्ण अभियान बनाने के लिए किया जाएगा।

आम जनता – आपके और मेरे जैसे लोग – भी पीड़ित हो सकते हैं। यह कोई हो सकता है जो पेशेवर तौर पर हमें शर्मिंदा करना चाहता हो, या कोई नाराज प्रेमी हो जो अपने पूर्व साथी से बदला लेना चाहता हो। यह सोशल मीडिया पर हमारा मज़ाक उड़ाना चाहने वाले ‘दोस्तों’ द्वारा की गई एक तुच्छ शरारत भी हो सकती है। दुर्भाग्यवश, संभावनाएँ अनंत हैं।

ऐसी स्थितियों में पड़ने अथवा ऐसी स्थिति उत्पन्न होने पर इसे समझने के लिए आम जानता को क्या कदम उठाने चाहिए इस बारे में Tech Wisperer के संस्थापक और एआई एक्सपर्ट जसप्रीत बिंद्रा ने निम्न सुझाव दिए हैं:

इन बातों पर दे विशेष ध्यान:

1. अप्राकृतिक पलकें झपकाना या उसकी कमी, चेहरे की विकृतियाँ, या रोशनी जो सही नहीं लगती, पर ध्यान दें।

2. आवाज से आप इसे पकड़ सकते है। यह बहुत अधिक रोबोटिक हो सकता है या होंठों की गतिविधियों के साथ थोड़ा सा तालमेल से बाहर हो सकता है।

3. अगर यह सच होने के लिए बहुत सनसनीखेज लगता है, तो अपने मन पर भरोसा रखें। क्या यह संदर्भ के अनुरूप है, या यह बहुत ही विचित्र है?

4. इसे दुनिया के सामने किसने रखा – एक विश्वसनीय स्रोत या कुख्यात नकली समाचार फैक्ट्री?

अपनी सुरक्षा स्वयं करें:

1. स्रोत की दोबारा जाँच करें। इसकी प्रामाणिकता को सत्यापित करने के लिए विभिन्न मीडिया आउटलेट्स पर एक ही कहानी देखें।

2. असत्यापित जानकारी साझा करने से बचें.

3. सामग्री को हमेशा आलोचनात्मक दिमाग से देखें। यदि ऐसा लगता है, तो इसकी अच्छी संभावना है कि ऐसा हो सकता है।

4. अपनी ऑनलाइन गोपनीयता सेटिंग कड़ी करें. आपके पास जितना कम डेटा होगा, किसी के लिए आपकी डीपफेक बनाना उतना ही कठिन होगा।

5. यदि आपको अपने बारे में कोई डीपफेक मिलता है, तो तुरंत अधिकारियों को इसकी सूचना दें।

नियामकों के लिए यह बेहद महत्वपूर्ण है कि वे बैठें और इस पर ध्यान दें – यही समय है कि अपराधियों को अनुकरणीय दंड देने के साथ कड़े नियमन लागू किए जाएं। यह अनिवार्य किया जाना चाहिए कि छवि या जानकारी तैयार करने के लिए एआई मॉडल का उपयोग करने वाले किसी भी व्यक्ति को इसका खुलासा करना होगा। लोगों को क्लासिफायर के बारे में जागरूक किया जाना चाहिए – सॉफ्टवेयर जो एआई-जनरेटेड सामग्री का पता लगा सकता है – और एंटीवायरस की तरह ही इसके व्यापक उपयोग के बारे में भी बताया जाना चाहिए।