कृत्रिम रूप से बनाए गए मीडिया को पहचानने के लिए कुछ रणनीति क्या हैं?


12

नकली चित्र, नकली साउंडबाइट और नकली वीडियो बनाने की बढ़ती क्षमता के साथ, वास्तविक और जो नहीं है उसे पहचानने के साथ बढ़ती समस्या बन जाती है। अब भी हम ऐसे कई उदाहरण देखते हैं जो कम लागत के लिए नकली मीडिया बनाते हैं (देखें डीपफेक , फेसपैक आदि)।

जाहिर है, अगर इन अनुप्रयोगों का उपयोग गलत तरीके से किया जाता है तो उनका उपयोग किसी अन्य व्यक्ति की छवि को धूमिल करने के लिए किया जा सकता है। डीपफेक का इस्तेमाल किसी व्यक्ति को अपने साथी के प्रति विश्वासहीन बनाने के लिए किया जा सकता है। एक अन्य एप्लिकेशन का उपयोग यह करने के लिए किया जा सकता है कि ऐसा लगता है कि एक राजनेता ने कुछ विवादास्पद कहा।

कुछ तकनीकें क्या हैं जिनका उपयोग कृत्रिम रूप से बनाए गए मीडिया के खिलाफ पहचान और सुरक्षा के लिए किया जा सकता है?

जवाबों:


2

डिजिटल मीडिया फोरेंसिक (डीएमएफ) क्षेत्र का उद्देश्य किसी छवि या वीडियो की अखंडता के स्वचालित मूल्यांकन के लिए प्रौद्योगिकियों का विकास करना है, इसलिए डीएमएफ वह क्षेत्र है जिसकी आप तलाश कर रहे हैं। DMF में कई दृष्टिकोण हैं: उदाहरण के लिए, जो मशीन लर्निंग (एमएल) तकनीकों पर आधारित हैं, विशेष रूप से, दृढ़ तंत्रिका नेटवर्क (CNNs)।

उदाहरण के लिए, पेपर में रीफर्नल न्यूरल नेटवर्क्स (2018) का उपयोग करते हुए डीपफेक वीडियो डिटेक्शन , डेविड गुएरा और एडवर्ड जे। डेलप ने फ्रेम स्तर पर सुविधाओं को निकालने के लिए सीएनएन से बना एक दो-चरण विश्लेषण प्रस्तावित किया, जिसके बाद एक अस्थायी रूप से जागरूक आरएनएन को कैप्चर करना था। डीपफेक टूल द्वारा पेश किए गए फ्रेम के बीच अस्थायी असंगतता। अधिक विशेष रूप से, वे एक दृढ़ एलएसटीएम आर्किटेक्चर (सीएनएन एक एलएसटीएम के साथ संयुक्त) का उपयोग करते हैं, जिसे एंड-टू-एंड प्रशिक्षित किया जाता है, ताकि सीएनएन वीडियो में उन विशेषताओं को सीखता है, जो आरएनएन को पास किए जाते हैं, जो संभावना की भविष्यवाणी करने का प्रयास करता है। एक नकली वीडियो से संबंधित सुविधाओं की या नहीं। धारा 3 डीपफेक वीडियो के निर्माण की व्याख्या करता है, जो वीडियो फ्रेम के बीच विसंगतियों की ओर जाता है (जो प्रस्तावित विधि में शोषित हैं) क्योंकि अलग-अलग देखने और रोशनी की स्थिति के साथ छवियों का उपयोग होता है।

इसी तरह के अन्य काम प्रस्तावित किए गए हैं। अधिक संबंधित कागजात के लिए यह क्यूरेटेड सूची https://github.com/aerophile/awesome-deepfakes देखें ।


1

मुझे लगता है कि संदर्भ यहां महत्वपूर्ण है। स्कॉटलैंड यार्ड द्वारा एक शताब्दी से अधिक समय तक इस्तेमाल किए गए रणनीति का उपयोग करना शायद सबसे अच्छा तरीका है। एलिबिस, यथार्थवादी समय रेखाओं, उद्देश्यों की स्थापना। एक कानूनी सेटिंग के लिए, यह साबित करना संभव होगा कि ये चित्र इस तरह के तरीकों का उपयोग करके नकली थे। एक आईटी दृष्टिकोण से, इन चित्रों के लिए एक मूल को इंगित करना संभव हो सकता है। यदि हजारों डुप्लिकेट छवियां एक ही मूल से आई हैं, तो इस मूल से कोई भी छवियां संदिग्ध हैं।

मुझे लगता है, सामान्य रूप से, हमें अपने आप को यह देखने के लिए विश्वास नहीं करना चाहिए कि हम सब कुछ देखते हैं। फ़ेकिंग छवियों के लिए बहुत सारे तरीके हैं, कि फोटोग्राफी को अब होने वाली घटना का सबसे अच्छा सबूत नहीं माना जा सकता है। हमें सभी छवियों को अनदेखा नहीं करना चाहिए, बल्कि निष्कर्षों पर कूदने से पहले तथ्यों के बाहर की तलाश करना चाहिए। यदि सभी तथ्य किसी घटना के होने की ओर इशारा करते हैं, तो वह तस्वीर वास्तविक होने की संभावना है।


0

मान लिया जाए कि कलाकृतियाँ और अप्राकृतिक तत्व मीडिया में मौजूद नहीं हैं और यह कि मीडिया मानवीय दृष्टि से अविभाज्य है, ऐसा करने का एकमात्र तरीका छवियों के स्रोत का पता लगाना है।

डीओएस (सेवा की अस्वीकृति) हमले के लिए एक सादृश्य तैयार किया जा सकता है, जहां एक एकल आईपी से एक एकल सर्वर पर एक दुर्घटना के कारण अनुरोधों की एक बेतुकी संख्या भेजी जाती है - एक सामान्य समाधान एक हनीपोट है, जहां एक से अधिक संख्या में अनुरोध हैं। IP को एक डिकॉय सर्वर पर रीडायरेक्ट किया जाता है, जहां क्रैश होने पर भी अपटाइम से समझौता नहीं किया जाता है। इन लाइनों पर कुछ शोध किए गए हैं जहां इस पत्र ने एक छवि के डिजिटल हस्ताक्षर को सत्यापित करने की बात की है या यह एक जहां उन्होंने छेड़छाड़ की छवि का पता लगाने और स्रोत कैमरा पहचान का प्रस्ताव दिया है।

एक बार एक स्रोत पर वापस जाने के बाद, यदि एक विलक्षण स्रोत से संभावित नकली छवियों की एक बेतुकी संख्या आती है, तो यह पूछताछ की जानी है।

सामान्य डर तब पैदा होता है जब हम किसी चीज़ के साथ व्यवहार कर रहे होते हैं, सादृश्य के आधार पर, जैसे DDoS (डिस्ट्रीब्यूटेड डेनियल ऑफ़ सर्विस) हमला, जहाँ प्रत्येक नकली अनुरोध एक वितरित स्रोत से आता है - नेटवर्क सुरक्षा ने इससे निपटने के तरीके ढूंढ लिए हैं, लेकिन सुरक्षा और AI के संदर्भ में धोखाधड़ी का पता लगाना अभी स्थापित नहीं है।

आज एक विशिष्ट दुर्भावनापूर्ण उद्देश्य के लिए एक सुविचारित कृत्रिम मीडिया के लिए आवश्यक रूप से, आज पकड़ा जाना काफी कठिन है - लेकिन वर्तमान में एआई में सुरक्षा पर काम किया जा रहा है। यदि आप दुर्भावनापूर्ण उद्देश्यों के लिए कृत्रिम मीडिया का उपयोग करने की योजना बना रहे हैं, तो मैं कहूंगा कि अब शायद सबसे अच्छा समय है।

यह सुरक्षा अभी से एक चिंता का विषय है। डेटा साइंटिस्ट द्वारा लिखित एक लेख उद्धरण

फर्जी पोर्न वीडियो के जरिए महिलाओं को परेशान करने और उन्हें अपमानित करने की कोशिश करने के लिए पहले से ही डीपफेक का इस्तेमाल किया गया है। यह शब्द वास्तव में एक Reddit उपयोगकर्ता के उपयोगकर्ता नाम से आया है, जो TensorFlow का उपयोग करके जेनरेटर प्रतिकूल नेटवर्क (GAN) का निर्माण करके इन वीडियो को बना रहा था। अब, खुफिया अधिकारी 2020 के राष्ट्रपति चुनावों को प्रभावित करने के लिए नकली वीडियो का उपयोग करके व्लादिमीर पुतिन की संभावना के बारे में बात कर रहे हैं। लोकतंत्र और राष्ट्रीय सुरक्षा के लिए एक खतरे के रूप में डीपफेक पर अधिक शोध किया जा रहा है, साथ ही साथ उन्हें कैसे पता लगाया जाए।

नोट - मैं नेटवर्क सुरक्षा के बारे में काफी स्पष्ट हूं, मेरा सारा ज्ञान एक दोस्त से बातचीत से आता है, और यह सोचा कि यहां उपयोग करने के लिए यह एक अच्छा सादृश्य होगा। सादृश्य में किसी भी त्रुटि को क्षमा करें और यदि संभव हो तो कृपया सही करें!


यह अच्छा होगा यदि आप कुछ शोध कर सकते हैं और कम से कम 1 अनुसंधान कार्य / कागज का लिंक प्रदान कर सकते हैं जो उन पंक्तियों के साथ कुछ पर आधारित है (जो कि संभावित नकली वीडियो के स्रोत का शोषण करता है)।
nbro

इसके अलावा कागजात संभावित नुकसान के बारे में बात , और लोगों को आमतौर पर कलाकृतियों का पता लगाने की कोशिश कर रहा है, कम कागजात जैसे जवाब में कहा गया है क्या कर रही है यह एक या इस एक - के रूप में कहा, व्यापक अनुसंधान इन पंक्तियों पर नहीं किया गया है, लेकिन यह है पता लगाया जा रहा है। आशा है कि इन लिंक ने मदद की!
13

-1

जिन तकनीकों का आप उल्लेख करते हैं, वे GANs का उपयोग करती हैं। गण का मुख्य विचार यह है कि आपके पास एक जनरेटर और एक भेदभाव है। जनरेटर नई सामग्री उत्पन्न करता है, विवेचक को यह बताना होता है कि सामग्री वास्तविक डेटा से है या यदि यह उत्पन्न हुई थी।

भेदभाव करने वाला तरीका अधिक शक्तिशाली होता है। फेक का पता लगाने के लिए एक भेदभाव करने वाले को प्रशिक्षित करना बहुत कठिन नहीं होना चाहिए। एक मॉडल को प्रशिक्षित करना जो हेरफेर को इंगित करने में सक्षम है और इस की समझ हेरफेर का एक प्रमाण कठिन है। यह प्रमाण मिलना असंभव है कि किसी चीज़ में हेरफेर नहीं किया गया है।

इस सवाल के बारे में कि आप फोटोशॉप्ड छवियों से कैसे निपटते हैं: आप छवि में संपीड़न स्तरों के अंतर को देखते हैं। देखने वाला कीवर्ड छवि फोरेंसिक है: http://fotoforensics.com/tutorial-estq.php

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.