मैं आउटपुट लेयर के लिए एक्टिवेशन फंक्शन को चुनता हूं जो मुझे जरूरत के आउटपुट और ऐक्टिवेशन फंक्शन के गुणों पर निर्भर करता है। उदाहरण के लिए, जब मैं संभावनाओं के साथ काम कर रहा होता हूं, तो मैं सिग्मॉइड फ़ंक्शन का चयन करता हूं, जब मैं सकारात्मक मूल्यों के साथ काम कर रहा होता हूं, तो एक सामान्य और जब मैं सामान्य मूल्यों के साथ काम कर रहा हूं तो एक रैखिक फ़ंक्शन।
छिपी हुई परतों में, मैं रिग्लू के बजाय मृत न्यूरॉन्स और सिग्मॉइड के बजाय तन से बचने के लिए एक टपका हुआ रेएलयू का उपयोग करता हूं। बेशक, मैं छिपी हुई इकाइयों में एक रैखिक फ़ंक्शन का उपयोग नहीं करता हूं।
हालांकि, छिपी हुई परत में उनके लिए विकल्प ज्यादातर परीक्षण और त्रुटि के कारण है।
क्या कुछ स्थितियों में कार्य सक्रिय होने की संभावना है, जिसके अंगूठे का कोई नियम है? शब्द स्थितियों को सामान्य रूप से लें : यह परत की गहराई, NN की गहराई तक, उस परत के लिए न्यूरॉन्स की संख्या तक, उस ऑप्टिमाइज़र के लिए, जिसे हमने चुना है, इनपुट इनपुट की संख्या के लिए संदर्भित कर सकता है वह परत, इस एनएन के आवेदन के लिए, आदि।
में उसकी / उसके जवाब , cantordust अन्य सक्रियण कार्यों को संदर्भित करता है कि मैं, का उल्लेख नहीं था ELU और सेलु की तरह। यह इन्फोस स्वागत से अधिक है। हालाँकि, अधिक सक्रियण कार्य मुझे पता चलता है कि मैं छिपी परतों में उपयोग करने के लिए फ़ंक्शन के विकल्प में अधिक उलझन में हूं। और मुझे नहीं लगता है कि एक सिक्का फ़्लिप करना एक सक्रियण फ़ंक्शन को चुनने का एक अच्छा तरीका है।