cross-entropy पर टैग किए गए जवाब

11
TensorFlow में लॉग इन शब्द का अर्थ क्या है?
निम्नलिखित TensorFlow फ़ंक्शन में, हमें अंतिम परत में कृत्रिम न्यूरॉन्स की सक्रियता को खिलाना चाहिए। वह मैं समझता हूं। लेकिन मुझे समझ नहीं आता कि इसे लॉगिट्स क्यों कहा जाता है? क्या यह गणितीय कार्य नहीं है? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels = target_output )

3
Sparse_softmax_cross_entropy_with_logits और softmax_cross_entropy_with_logits में क्या अंतर है?
मैं हाल ही में tf.nn.sparse_softmax_cross_entropy_with_logits के पार आया और मैं यह नहीं जान पाया कि अंतर की तुलना क्या है tf.nn.softmax_crossmententy_with_logits । एकमात्र अंतर यह है कि प्रशिक्षण वैक्टर yको एक-गर्म एन्कोडेड होना चाहिए का उपयोग करते समयsparse_softmax_cross_entropy_with_logits ? एपीआई को पढ़ना, मुझे तुलना में कोई अन्य अंतर नहीं मिला …

3
क्रॉस-एंट्रोपी क्या है?
मुझे पता है कि क्रॉस-एंट्रॉपी क्या है, इसके बारे में बहुत सारे स्पष्टीकरण हैं, लेकिन मैं अभी भी भ्रमित हूं। क्या यह केवल हानि फ़ंक्शन का वर्णन करने का एक तरीका है? क्या हम हानि फ़ंक्शन का उपयोग करके न्यूनतम खोजने के लिए ढाल वंश एल्गोरिथ्म का उपयोग कर सकते …

2
TensorFlow में क्रॉस-एन्ट्रापी लॉस कैसे चुनें?
वर्गीकरण समस्याएं, जैसे कि लॉजिस्टिक रिग्रेशन या मल्टीमोनियल लॉजिस्टिक रिग्रेशन, एक क्रॉस-एन्ट्रापी लॉस का अनुकूलन करते हैं । आम तौर पर, क्रॉस-एन्ट्रापी परत सॉफ्टमैक्स परत का अनुसरण करती है , जो संभावना वितरण का उत्पादन करती है। टेंसरफ़्लो में, कम से कम एक दर्जन विभिन्न क्रॉस-एंट्रोपी हानि कार्य हैं : …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.