सत्यापित मीडिया का मामला
असली तस्वीर, नकली कहानी।
कैमरे के आविष्कार के बाद से, मनुष्यों ने इस तथ्य का फायदा उठाया है कि हम मीडिया पर आंतरिक रूप से प्रतिक्रिया करते हैं। सीधे शब्दों में कहें: तस्वीरें हों, तो हुआ। (जिसका अर्थ है, यदि तस्वीरें हैं, तो यह निश्चित रूप से हुआ)। न केवल एक तस्वीर हज़ार शब्दों के बराबर है, बल्कि हमारे दिमाग़ सहज रूप से अपनी इंद्रियों पर भरोसा करने के लिए प्रोग्राम हैं। (इससे भी महत्वपूर्ण, उन्हें अन्यथा नहीं मनाया जा सकता, यहाँ तक कि जब हम जानते हैं कि हमें धोखा दिया गया है)।
कंप्यूटर की शक्ति, विशेष रूप से सर्वव्यापी डिजिटल कैमरों की शुरुआत और Adobe Photoshop के उदय के बाद से, हमें उस अंतर्निहित विश्वास को तोड़ने की अनुमति दी है। पहले, यह फिल्मों में practical effects और फिर CGI था; हाल ही में, deepfake का उदय हुआ है।
सिंथेटिक मीडिया अब दुनिया भर में अपराध और युद्ध दोनों का एक अभिन्न हिस्सा है: बीमा धोखाधड़ी, पहचान की चोरी, दुष्प्रचार अभियान, बदला पोर्नोग्राफी, मानहानि, और अधिक: अंतर्निहित हथियार एक-दूसरे को यह विश्वास दिलाने की क्षमता है कि एक नकली, नकली नहीं है। इससे भी अधिक चालाकी से, हर नया deepfake एक दूसरा नुकसान पहुँचाता है: यह हमारी इंद्रियों के साक्ष्य में हमारा विश्वास कमज़ोर करता है। इसे "Liar's Dividend" कहा जाता है, और यह तानाशाहों और dictators को जेल से बाहर निकलने का फ्री कार्ड देता है। "वह वीडियो में कभी मैं नहीं था," वे चिल्लाते हैं। "यह नकली होना चाहिए।"

सिंथेटिक मीडिया के खिलाफ लड़ाई में वर्तमान प्रयास पहचान की समस्या पर केंद्रित हैं — क्या हम किसी फ़ोटो या वीडियो का विश्लेषण कर सकते हैं और बता सकते हैं कि यह वास्तविक है? यह दृष्टिकोण आज तक हमारी अच्छी सेवा करता रहा है, लेकिन जैसे-जैसे deepfakes सिंथेटिक मीडिया बनाने का प्रचलित तरीका बनती जा रही हैं, पहचान अब पर्याप्त नहीं है।
सबसे पहले, पहचान कभी भी 100% सटीक नहीं होगी। DARPA ने इस क्षेत्र में करोड़ों डॉलर के काम को फंड किया है, फिर भी पहचान तकनीक की प्रत्येक पीढ़ी समय के साथ कम विश्वसनीय होती जाती है। पहचान के तरीके generation दृष्टिकोणों में प्रगति के साथ नहीं रह सकते, जिससे दो अलग-अलग समस्याएँ उत्पन्न होती हैं: false negatives और false positives।
कौन सा बुरा है: False Positive, या False Negative?
False positives Youtube, Instagram, या Whatsapp जैसे मीडिया प्लेटफार्मों के लिए एक प्रशासनिक समस्या है, और कानून प्रवर्तन के लिए एक संसाधन समस्या है। सबसे बुरे मामलों में, जिस मीडिया को गलत तरीके से झूठा लेबल किया गया है वह सेंसरशिप के दावों और "Deep State" षड्यंत्र सिद्धांतों का बैकलैश पैदा कर सकता है। यहाँ तक कि सबसे अच्छे मामले में, false positives की उच्च दर वाली प्रणाली को जल्दी ही नजरअंदाज कर दिया जाएगा।
लेकिन false negatives और भी बुरे हैं। कल्पना करें कि क्या हुआ होता अगर ज़ेलेंस्की के पुतिन के सामने आत्मसमर्पण का deepfake वीडियो गलत तरीके से "नकली नहीं" के रूप में चिह्नित किया गया होता?
यह देखते हुए कि deepfakes वास्तव में कैसे बनाई जाती हैं, पहचान के साथ एक तीसरी समस्या है — deepfakes का पता लगाने के लिए बनाई गई हर प्रणाली को तुरंत ऐसी deepfakes बनाने के लिए इस्तेमाल किया जा सकता है जो इस प्रणाली से बच सकें। (अंतर्निहित तकनीक को GANs कहा जाता है, और यह हाल के वर्षों में विकसित AI के सबसे शक्तिशाली रूपों में से एक है।)
इस तीसरी समस्या से बचने के लिए हम पहचान के अंतर्निहित तंत्र को गुप्त रखकर बच सकते हैं; जबकि DARPA ने अपने पहले के पहचान कार्य को open source के रूप में प्रकाशित करने की गलती की, उनके श्रेय के लिए अधिकांश commercial detection कंपनियाँ इस दृष्टिकोण को अपनाती हैं। लेकिन यह एक अतिरिक्त समस्या पेश करता है — आलोचक एक पहचान तंत्र पर भरोसा नहीं करेंगे जो सार्वजनिक जाँच के सामने नहीं है, और हम फिर से Liar's Dividend पर वापस आ जाते हैं।
इस समस्या का समाधान परिभाषित करने में सरल है, और हासिल करने में कठिन: हमें "प्रामाणिक" मीडिया के लिए एक वैश्विक मानक की आवश्यकता है। वह प्रामाणिकता कैप्चर के क्षण में स्थापित होनी चाहिए — काल्पनिक शटर के क्लिक पर। और यह छेड़छाड़-प्रतिरोधी होना चाहिए — गणित पर आधारित, विश्वसनीय भागीदारों पर नहीं।
Polyguard को क्रियान्वित देखना चाहते हैं?
अपनी संचार सुरक्षा के लिए रीयल-टाइम पहचान सत्यापन का अनुभव करें।