इस सवाल का फोकस
"हम कैसे कर सकते हैं ... हम वास्तविक वितरण से डेटा और उसी पुनरावृत्ति में जेनेरेटिव मॉडल से डेटा संसाधित करते हैं?
फाउंडेशनल पब्लिकेशन का विश्लेषण
संदर्भित पृष्ठ में, अंडरस्टैंडिंग जेनरेटिव एडवांसरियल नेटवर्क्स (2017) , डॉक्टरेट के उम्मीदवार डैनियल सिएटा ने जेनेरिक एडवरसरील नेटवर्क्स, गुडफेलो, पॉगेट-अबडी, मिर्जा, जू, वार्डे-फार्ले, ओजैर, कोर्टविल और बेंगियो, जून 2014 को सही ढंग से संदर्भित किया है । यह सार में कहा गया है, "हम एक प्रतिकूल प्रक्रिया के माध्यम से जेनेरेटिव मॉडल का आकलन करने के लिए एक नया ढांचा प्रस्तावित करते हैं, जिसमें हम एक साथ दो मॉडल को प्रशिक्षित करते हैं ..." यह मूल पेपर एमएलपीएस (बहुपरत अवधारणात्मक) के रूप में परिभाषित दो मॉडल को परिभाषित करता है।
- जनरेटिव मॉडल, जी
- भेदभावपूर्ण मॉडल, डी
इन दो मॉडलों को एक तरह से नियंत्रित किया जाता है, जहां एक दूसरे की ओर नकारात्मक प्रतिक्रिया का रूप प्रदान करता है, इसलिए यह प्रतिकूल शब्द है।
- G को मूर्ख बनाने के लिए पर्याप्त उदाहरण के एक सेट के डेटा वितरण को पकड़ने के लिए प्रशिक्षित किया जाता है।
- D को यह पता लगाने के लिए प्रशिक्षित किया जाता है कि क्या इसका इनपुट G के मोक्स हैं या GAN सिस्टम के लिए उदाहरणों का समूह।
(GAN प्रणाली के लिए उदाहरणों के सेट को कभी-कभी वास्तविक नमूनों के रूप में संदर्भित किया जाता है, लेकिन वे उत्पन्न लोगों की तुलना में अधिक वास्तविक नहीं हो सकते हैं। दोनों एक कंप्यूटर में संख्यात्मक सरणियाँ हैं, एक आंतरिक मूल के साथ सेट है और दूसरा बाहरी के साथ है। मूल। क्या बाहरी लोग किसी भौतिक दृश्य पर इंगित किए गए कैमरे से हैं जो GAN ऑपरेशन के लिए प्रासंगिक नहीं हैं।)
संभावित रूप से, D को बेवकूफ बनाना इस संभावना को अधिकतम करने का पर्याय है कि D कई गलत सकारात्मक और गलत नकारात्मक उत्पन्न करेगा क्योंकि यह सही वर्गीकरण करता है, प्रत्येक 50%। सूचना विज्ञान में, यह कहना है कि D की जानकारी D की सीमा 0 के पास है क्योंकि t अनंतता के करीब है। यह डी के दृष्टिकोण से जी की एन्ट्रॉपी को अधिकतम करने की प्रक्रिया है, इस प्रकार क्रॉस-एन्ट्रॉपी शब्द।
कन्वर्सेशन कैसे पूरा होता है
क्योंकि प्रश्न में Sieta के 2017 लेखन से पुन: उत्पन्न होने वाला नुकसान डी का है, जो किसी दिए गए प्रशिक्षण राज्य के लिए अंकों के पूर्ण सेट पर लागू होने पर दो वितरणों के बीच क्रॉस एन्ट्रॉपी (या सहसंबंध) को कम करने के लिए डिज़ाइन किया गया है।
एच( ( एक्स1, वाई1) , डी ) = 1डी ( एक्स)1)
जी के लिए एक अलग नुकसान फ़ंक्शन है, जिसे क्रॉस एन्ट्रॉपी को अधिकतम करने के लिए डिज़ाइन किया गया है। ध्यान दें कि सिस्टम में प्रशिक्षण ग्रैन्युलैरिटी के दो स्तर हैं।
- खेल के दो खिलाड़ी खेल में चलता है
- यह प्रशिक्षण के नमूने हैं
ये बाहरी पुनरावृत्ति के साथ नेस्टेड पुनरावृत्ति उत्पन्न करते हैं।
- जी के नुकसान समारोह का उपयोग करके जी आय का प्रशिक्षण।
- मॉक इनपुट पैटर्न प्रशिक्षण की वर्तमान स्थिति में जी से उत्पन्न होते हैं।
- डी के नुकसान समारोह का उपयोग करके डी आय का प्रशिक्षण।
- दोहराएं यदि क्रॉस एन्ट्रापी अभी तक पर्याप्त रूप से अधिकतम नहीं है, तो डी अभी भी भेदभाव कर सकता है।
जब डी अंत में खेल खो देता है, तो हमने अपना लक्ष्य हासिल कर लिया है।
- जी ने प्रशिक्षण डेटा वितरण को पुनर्प्राप्त किया
- डी को अप्रभावीता में घटा दिया गया है ("हर जगह 1/2 संभावना")
क्यों समवर्ती प्रशिक्षण आवश्यक है
यदि दो मॉडलों को संगामिति का अनुकरण करने के लिए आगे और पीछे के तरीके से प्रशिक्षित नहीं किया गया था, तो 2014 के पेपर में दावा किए गए अद्वितीय समाधान पर प्रतिकूल विमान (बाहरी पुनरावृत्ति) में अभिसरण नहीं होगा।
अधिक जानकारी
सवाल से परे, Sieta के पेपर में रुचि का अगला आइटम यह है कि, "जनरेटर के नुकसान फ़ंक्शन का खराब डिज़ाइन," वंश को निर्देशित करने और कभी-कभी संतृप्ति कहा जाता है का उत्पादन करने के लिए अपर्याप्त ढाल मान पैदा कर सकता है। संतृप्ति फीडबैक सिग्नल की कमी है जो फ्लोटिंग पॉइंट राउंडिंग से उत्पन्न होने वाले अराजक शोर के पीछे-पीछे प्रसार को निर्देशित करती है। शब्द सिग्नल सिद्धांत से आता है।
मेरा सुझाव है कि 2017 के पेपर के बजाय GAN तकनीक के बारे में जानने के लिए Goodfellow et alia (अनुभवी शोधकर्ताओं) द्वारा 2014 के पेपर का अध्ययन करें ।