मैं हाल ही में tf.nn.sparse_softmax_cross_entropy_with_logits के पार आया और मैं यह नहीं जान पाया कि अंतर की तुलना क्या है tf.nn.softmax_crossmententy_with_logits ।
एकमात्र अंतर यह है कि प्रशिक्षण वैक्टर y
को एक-गर्म एन्कोडेड होना चाहिए का उपयोग करते समयsparse_softmax_cross_entropy_with_logits
?
एपीआई को पढ़ना, मुझे तुलना में कोई अन्य अंतर नहीं मिला softmax_cross_entropy_with_logits
। लेकिन फिर हमें अतिरिक्त फ़ंक्शन की आवश्यकता क्यों है?
अगर यह एक गर्म एन्कोडेड प्रशिक्षण डेटा / वैक्टर के साथ आपूर्ति की जाती है, तो softmax_cross_entropy_with_logits
उसी परिणाम का उत्पादन नहीं करना चाहिए sparse_softmax_cross_entropy_with_logits
?