विशेष रूप से, मुझे लगता है कि मैं इस कथन के बारे में आश्चर्यचकित हूं:
TensorFlow के भविष्य के प्रमुख संस्करण ग्रेडिएंट्स को डिफ़ॉल्ट रूप से बैकप्रॉप पर लेबल इनपुट में प्रवाहित करने की अनुमति देंगे।
जिसका उपयोग करने पर दिखाया जाता है tf.nn.softmax_cross_entropy_with_logits
। एक ही संदेश में यह मेरे लिए एक नज़र है आग्रह करता हूं tf.nn.softmax_cross_entropy_with_logits_v2
। मैंने प्रलेखन के माध्यम से देखा लेकिन यह केवल यह बताता है कि tf.nn.softmax_cross_entropy_with_logits_v2
:
Backpropagation लॉगिट और लेबल दोनों में होगा। लेबल में बैकप्रॉपैगैशन को हटाने के लिए, इस फ़ंक्शन को खिलाने से पहले एक स्टॉप_ग्रेडिएंट के माध्यम से लेबल टेंसर्स पास करें।
के रूप में विरोध किया है tf.nn.softmax_cross_entropy_with_logits
:
बैकप्रोगैगेशन केवल लॉगिन में होगा।
विषय के लिए बहुत नया होने के नाते (मैं कुछ बुनियादी ट्यूटोरियल के माध्यम से अपना रास्ता बनाने की कोशिश कर रहा हूं) वे कथन बहुत स्पष्ट नहीं हैं। मुझे बैकप्रोपैजेशन की उथली समझ है लेकिन पिछले कथन का वास्तव में क्या मतलब है? बैकप्रोपेगेशन और लेबल कैसे जुड़े हैं? और यह कैसे बदलता है कि मैं tf.nn.softmax_cross_entropy_with_logits_v2
मूल के विपरीत कैसे काम करता हूं ?
softmax_..._with_logits_v2
जाएंगे और क्या काम करेंगेsoftmax_with_logits
? (या मैं लेबल चर पर tf.stop_gradient का उपयोग कर सकता हूं।)