softmax पर टैग किए गए जवाब

एक घातांक फ़ंक्शन को सामान्य करना जो एक संख्यात्मक वेक्टर को रूपांतरित करता है जैसे कि इसकी सभी प्रविष्टियां 0 और 1 के बीच हो जाती हैं और एक साथ 1 से 1 तक होती हैं। इसका उपयोग अक्सर एक वर्गीकरण कार्य करने वाले तंत्रिका नेटवर्क की अंतिम परत के रूप में किया जाता है।

4
लॉजिस्टिक क्लासिफायर में सॉफ्टमैक्स बनाम सिग्मोइड फ़ंक्शन?
एक लॉजिस्टिक क्लासिफायरियर में फ़ंक्शन (सॉफ्टमैक्स बनाम सिग्मॉइड) का विकल्प क्या तय करता है? मान लीजिए कि 4 आउटपुट क्लास हैं। उपरोक्त फ़ंक्शन में से प्रत्येक प्रत्येक वर्ग की संभावनाओं को सही आउटपुट देता है। तो क्लासिफायर के लिए कौन सा लेना है?

6
सॉफ्टमैक्स / क्रॉस एंट्रोपी के साथ बैकप्रोपेगेशन
मैं समझने की कोशिश कर रहा हूं कि सॉफ्टपैक्स / क्रॉस-एन्ट्रापी आउटपुट लेयर के लिए बैकप्रॉपैगैशन कैसे काम करता है। क्रॉस एन्ट्रापी एरर फंक्शन है E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j साथ और न्यूरॉन में लक्ष्य और आउटपुट के रूप में , क्रमशः। आउटपुट लेयर में प्रत्येक न्यूरॉन के ऊपर योग होता …

1
आउटपुट परत में क्रॉस-एंट्रॉपी या लॉग लाइकैलिटी
मैंने इस पृष्ठ को पढ़ा: http://neuralnetworksanddeeplearning.com/chap3.html और यह कहा कि क्रॉस-एन्ट्रॉपी के साथ सिग्मॉइड आउटपुट लेयर लॉग-लाइकैलिटी के साथ सॉफ्टमैक्स आउटपुट लेयर के साथ काफी समान है। क्या होगा अगर मैं आउटपुट परत में क्रॉस एन्ट्रॉपी के साथ लॉग-लाइबिलिटी या सॉफ्टमैक्स के साथ सिग्मॉइड का उपयोग करता हूं? यह ठीक …

4
डीप लर्निंग मॉडल के लिए सॉफ्टमैक्स आउटपुट एक अच्छा अनिश्चितता मापक क्यों नहीं है?
मैं पिछले कुछ समय से कन्वेंशनल न्यूरल नेटवर्क्स (CNNs) के साथ काम कर रहा हूं, ज्यादातर सिमेंटिक सेगमेंटेशन / इंस्टेंसेशन के लिए इमेज डेटा पर। मैंने अक्सर "हीट मैप" के रूप में नेटवर्क आउटपुट के सॉफ्टमैक्स की कल्पना की है, यह देखने के लिए कि एक निश्चित वर्ग के लिए …

2
सॉफ्टमैक्स फ़ंक्शन का उपयोग संभावनाओं की गणना करने के लिए क्यों किया जाता है, हालांकि हम प्रत्येक मान को वेक्टर के योग से विभाजित कर सकते हैं?
एक वेक्टर पर सॉफ्टमैक्स फ़ंक्शन को लागू करने से "संभावनाएं" और और बीच मान उत्पन्न होंगे । 000111 लेकिन हम प्रत्येक मान को वेक्टर के योग से विभाजित कर सकते हैं और यह और बीच संभावनाओं और मूल्यों का उत्पादन करेगा ।000111 मैं यहाँ पर उत्तर पढ़ता हूं लेकिन यह …

1
क्रमिक डेटा आउटपुट करने के लिए तंत्रिका नेटवर्क कैसे सेट करें?
मेरे पास एक तंत्रिका नेटवर्क है जो कुछ का अनुमान लगाने के लिए सेट किया गया है जहां आउटपुट चर सामान्य है। मैं नीचे तीन संभावित आउटपुट ए <बी <सी का उपयोग करके वर्णन करूंगा। यह स्पष्ट है कि कैसे एक न्यूरल नेटवर्क का उपयोग श्रेणीबद्ध डेटा के उत्पादन के …

1
कैरट glmnet बनाम cv.glmnet
वहाँ का उपयोग कर की तुलना में भ्रम का एक बहुत हो रहा है glmnetके भीतर caretएक इष्टतम लैम्ब्डा के लिए खोज करने के लिए और का उपयोग कर cv.glmnetएक ही काम करने के लिए। कई सवाल किए गए, उदाहरण के लिए: वर्गीकरण मॉडल train.glmnet बनाम cv.glmnet? कैरट के साथ …

3
क्यों अनैतिक शब्दों के लिए पदानुक्रमित सॉफ्टमैक्स बेहतर है, जबकि नकारात्मक नमूना लगातार शब्दों के लिए बेहतर है?
मुझे आश्चर्य है कि पदानुक्रमित सॉफ्टमैक्स, असंगत शब्दों के लिए बेहतर क्यों है, जबकि नकारात्मक नमूने लगातार शब्दों के लिए, वर्डवेव के सीबीओओ और स्किप-ग्राम मॉडल में बेहतर है। मैंने https://code.google.com/p/word2vec/ पर दावा पढ़ा है ।

2
क्रॉस एन्ट्रापी लॉस फ़ंक्शन की विभिन्न परिभाषाएं
मैंने न्यूरल नेटवर्क्स के साथ तंत्रिका नेटवर्क के बारे में सीखना शुरू कर दिया है। डॉट कॉम ट्यूटोरियल। तीसरे अध्याय में विशेष रूप से क्रॉस एन्ट्रापी फ़ंक्शन के बारे में एक अनुभाग है, और क्रॉस एन्ट्रापी नुकसान को परिभाषित करता है: C=−1n∑x∑j(yjlnaLj+(1−yj)ln(1−aLj))C=−1n∑x∑j(yjln⁡ajL+(1−yj)ln⁡(1−ajL))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln a^L_j + …

2
एमएलडी में सॉफ्टमैक्स फ़ंक्शन और थर्मोडायनेमिक्स में बोल्ट्जमैन वितरण के बीच संबंध कितना गहरा है?
सॉफ्टमैक्स फ़ंक्शन, जिसे आमतौर पर न्यूरल नेटवर्क में वास्तविक संख्याओं को संभावनाओं में परिवर्तित करने के लिए उपयोग किया जाता है, बोल्ट्जमन वितरण के समान ही फ़ंक्शन है, थर्मोडायनेमिक्स में दिए गए टी पर थर्मल संतुलन में कणों के संयोजन के लिए ऊर्जा पर संभाव्यता वितरण। मैं कुछ स्पष्ट विषम …

3
एक अलौकिक तंत्रिका नेटवर्क में अंतिम सॉफ्टमैक्स परत से पहले गैर-रैखिकता
मैं अध्ययन कर रहा हूं और विवादास्पद तंत्रिका नेटवर्क को लागू करने की कोशिश कर रहा हूं, लेकिन मुझे लगता है कि यह सवाल बहुपरत अवधारणात्मक रूप से सामान्य रूप से लागू होता है। मेरे नेटवर्क में आउटपुट न्यूरॉन्स प्रत्येक वर्ग की सक्रियता का प्रतिनिधित्व करते हैं: सबसे सक्रिय न्यूरॉन …

2
सॉफ्टेमैक्स का उपयोग संभाव्यता वितरण का प्रतिनिधित्व करने के लिए क्यों किया जाता है?
मशीन लर्निंग साहित्य में, प्रायिकता वितरण का प्रतिनिधित्व करने के लिए, सॉफ्टमैक्स फ़ंक्शन का अक्सर उपयोग किया जाता है। क्या इसका कोई कारण है? एक अन्य फ़ंक्शन का उपयोग क्यों नहीं किया जाता है?

3
स्किकिट-लर्न में मल्टी-लेयर पर्सेप्ट्रॉन में एक्टिवेशन फ़ंक्शन के रूप में सॉफ्टमैक्स कैसे लागू करें? [बन्द है]
बन्द है। यह सवाल ऑफ टॉपिक है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? प्रश्न को अपडेट करें ताकि यह क्रॉस मान्य के लिए विषय पर हो । 11 महीने पहले बंद हुआ । मुझे सॉफ्टमिट में मल्टी-लेयर पर्सेप्ट्रॉन को सॉफ्टमैक्स …

3
बहुराष्ट्रीय लॉजिस्टिक लॉस बनाम (क्रॉस एंट्रॉपी बनाम स्क्वायर एरर)
मैंने देखा कि कैफ (एक गहरी सीखने की रूपरेखा) ने अधिकांश मॉडल नमूनों के लिए उत्पादन परत के रूप में सॉफ्टमैक्स लॉस लेयर का उपयोग किया था ।SoftmaxWithLoss जहां तक ​​मुझे पता है, सॉफ्टमैक्स लॉस लेयर मल्टीमोनियल लॉजिस्टिक लॉस लेयर और सॉफ्टमैक्स लेयर का संयोजन है । कैफ से, उन्होंने …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.