ड्रॉपआउट ( कागज , स्पष्टीकरण ) कुछ न्यूरॉन्स के उत्पादन को शून्य पर सेट करता है। तो एक MLP के लिए, आप Iris फूल डेटासेट के लिए निम्नलिखित वास्तुकला रख सकते हैं :
4 : 50 (tanh) : dropout (0.5) : 20 (tanh) : 3 (softmax)
यह इस तरह काम करेगा:
साथ , डब्ल्यू 1 ∈ आर 50 × 4 , डी ∈ { 0 , 1 } 50 × 1 , डब्ल्यू 2 ∈ आर 20 × 50 , डब्ल्यू 3 ∈ आर 20 × 3 (सरलीकृत के लिए पूर्वाग्रहों की अनदेखी)।
साथ = ( d ) i j और
जहां ऑपरेशन M के साथ D बिंदु-वार गुणा करता है (देखें Hadamard उत्पाद )।
इसलिए हम हर बार मैट्रिक्स नमूना लेते हैं और इस तरह ड्रॉपआउट 0 के साथ नोड का गुणन बन जाता है।
लेकिन सीएनएन के लिए, यह मेरे लिए स्पष्ट नहीं है कि वास्तव में क्या बाहर निकाला गया है। मैं तीन संभावनाएं देख सकता हूं:
- पूर्ण फ़ीचर मैप्स को छोड़ना (इसलिए कर्नेल)
- कर्नेल के एक तत्व को छोड़ना (कर्नेल के एक तत्व को 0 से बदलना)
- सुविधा मानचित्र के एक तत्व को छोड़ना
कृपया अपने उत्तर में एक संदर्भ / उद्धरण जोड़ें।
मेरे विचार
मुझे लगता है कि लासगैन करता है (3) ( कोड देखें )। यह लागू करने के लिए सबसे सरल हो सकता है। हालांकि, मूल विचार के करीब (1) हो सकता है।
कैफ के लिए समान लगता है ( कोड देखें )। टेंसरफ़्लो के लिए, उपयोगकर्ता को फैसला करना होगा ( कोड - मुझे यकीन नहीं है कि जब noise_shape=None
पास होता है तो क्या होता है)।
यह कैसा होना चाहिए
(2) और (3) का कोई मतलब नहीं है क्योंकि यह नेटवर्क को स्पेसियन पोजिशंस के साथ जोड़ देगा, जो शायद वांछित है। इसलिए (1) एकमात्र संस्करण है जो समझ में आता है। लेकिन मुझे यकीन नहीं है कि यदि आप डिफ़ॉल्ट कार्यान्वयन का उपयोग करते हैं तो क्या होगा।