बस इस स्पष्टीकरण को जोड़ना ताकि जो कोई भी इसे नीचे स्क्रॉल करता है वह कम से कम इसे ठीक से प्राप्त कर सके, क्योंकि बहुत सारे गलत उत्तर हैं।
डायनेशेंग का जवाब और जेकेज का जवाब सही है। शीतल शाह द्वारा पोस्ट किया गया
एक नया उत्तर और भी बेहतर और पूर्ण उत्तर है।
हां, आंकड़ों में logit
गणितीय फ़ंक्शन के रूप में, लेकिन logit
तंत्रिका नेटवर्क के संदर्भ में उपयोग अलग है। सांख्यिकीय logit
भी यहाँ कोई मतलब नहीं है।
मुझे कहीं भी एक औपचारिक परिभाषा नहीं मिली, लेकिन logit
मूल रूप से इसका मतलब है:
कच्ची भविष्यवाणियां जो तंत्रिका नेटवर्क की अंतिम परत से निकलती हैं।
1. यह बहुत ही टेंसर है जिस पर आप argmax
पूर्वानुमानित वर्ग प्राप्त करने के लिए फ़ंक्शन को लागू करते हैं ।
2. यह बहुत ही टेंसर है जो आप softmax
अनुमानित कक्षाओं के लिए संभावनाओं को प्राप्त करने के लिए फ़ंक्शन में फ़ीड करते हैं।
इसके अलावा, आधिकारिक टेंसरफ़्लो वेबसाइट पर एक ट्यूटोरियल से :
लॉग्स लेयर
हमारे तंत्रिका नेटवर्क में अंतिम परत लॉगिट्स परत है, जो हमारे पूर्वानुमानों के लिए कच्चे मूल्यों को वापस कर देगी। हम रैखिक सक्रियण (डिफ़ॉल्ट) के साथ 10 न्यूरॉन्स (प्रत्येक लक्ष्य वर्ग 0–9 के लिए एक) के साथ एक घनी परत बनाते हैं:
logits = tf.layers.dense(inputs=dropout, units=10)
यदि आप अभी भी भ्रमित हैं, तो स्थिति इस प्रकार है:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
जहां, predicted_class_index_by_raw
और predicted_class_index_by_prob
बराबर होगा।
raw_predictions
उपरोक्त कोड में एक और नाम हैlogit
।
के रूप में क्यों logit
... मुझे पता नहीं है। माफ़ करना।
[संपादित करें: शब्द के पीछे ऐतिहासिक प्रेरणाओं के लिए यह उत्तर देखें ।]
सामान्य ज्ञान
हालांकि, अगर आप चाहते हैं तो आपको सांख्यिकीय आवेदन कर सकते हैं logit
करने के लिए probabilities
है कि से बाहर आने के softmax
कार्य करते हैं।
यदि एक निश्चित वर्ग की संभावना है p
,
तो उस वर्ग का लॉग-ऑड है L = logit(p)
।
इसके अलावा, फ़ंक्शन p = sigmoid(L)
का उपयोग करके उस वर्ग की संभावना को पुनर्प्राप्त किया जा सकता है sigmoid
।
हालांकि लॉग-ऑड्स की गणना करने के लिए बहुत उपयोगी नहीं है।