मैंने एक तंत्रिका नेटवर्क को "मूर्ख" करने के लिए मैन्युअल रूप से विरोधाभासी छवियों के बारे में कुछ पेपर पढ़ा है (नीचे देखें)।
क्या यह इसलिए है क्योंकि नेटवर्क केवल सशर्त संभाव्यता मॉडल बनाते हैं ?
यदि कोई नेटवर्क संयुक्त संभाव्यता को मॉडल कर सकता है , तो क्या ऐसे मामले अभी भी होंगे?p ( y , x )
मेरा अनुमान है कि ऐसी कृत्रिम रूप से बनाई गई छवियां प्रशिक्षण डेटा से भिन्न होती हैं, इसलिए वे कम संभावना । इसलिए कम होना चाहिए भले ही ऐसी छवियों के लिए उच्च हो।p ( y , x ) p ( y | x )
अपडेट करें
मैंने कुछ जेनरिक मॉडल आज़माए हैं, यह मददगार नहीं निकला, इसलिए मुझे लगता है कि शायद यह MLE का परिणाम है?
मेरा मतलब है कि केएल विचलन का उपयोग हानि फ़ंक्शन के रूप में किया जाता है, का मान जहां छोटा है, नुकसान को प्रभावित नहीं करता है। तो एक काल्पनिक छवि के लिए जो मेल नहीं खाती है, का मान मनमाना हो सकता है।पी डी एक टी एक ( एक्स ) पी डी एक टी एक पी θ
अपडेट करें
मुझे एक ब्लॉग मिला जिसमें कारपेंटी दिखती है
ये परिणाम छवियों, कन्वर्नेट के लिए विशिष्ट नहीं हैं, और वे डीप लर्निंग में "दोष" भी नहीं हैं।
शोषणकारी और हानिकारक व्यवहारिक उदाहरण गहरे तंत्रिका नेटवर्क को आसानी से बेवकूफ बना दिया जाता है: पहचानने योग्य छवियों के लिए उच्च आत्मविश्वास की भविष्यवाणी