एक अधिकतम यूनिट एक टुकड़े-टुकड़े रैखिक, उत्तल फ़ंक्शन को k टुकड़ों तक सीख सकती है । 1
तो जब k 2 होता है, तो आप ReLU, निरपेक्ष ReLU, टपका हुआ ReLU, इत्यादि लागू कर सकते हैं, या यह एक नया फ़ंक्शन लागू करना सीख सकता है। यदि k को 10 कहा जाता है, तो आप लगभग उत्तल कार्य भी सीख सकते हैं।
जब k 2 है:
मैक्सआउट न्यूरॉन फ़ंक्शन गणना करता है । ReLU और Leaky दोनों ReLU इस फॉर्म का एक विशेष मामला है (उदाहरण के लिए, ReLU के लिए हमारे पास ) है। मैक्सआउट न्यूरॉन इसलिए एक ReLU इकाई (ऑपरेशन के रैखिक शासन, कोई संतृप्ति) के सभी लाभों का आनंद लेता है और इसकी कमियां (मरते हुए ReLU) नहीं है।max(wT1x+b1,wT2x+b2)w1,b1=0
हालांकि, ReLU न्यूरॉन्स के विपरीत यह हर एक न्यूरॉन के लिए मापदंडों की संख्या को दोगुना करता है, जिससे मापदंडों की एक उच्च कुल संख्या होती है। 2
आप यहाँ विवरण पढ़ सकते हैं:
1. डीएल पुस्तक
2. http://cs231n.github.io/neural-networks-1