बस इस स्पष्टीकरण को जोड़ना ताकि जो कोई भी इसे नीचे स्क्रॉल करता है वह कम से कम इसे ठीक से प्राप्त कर सके, क्योंकि बहुत सारे गलत उत्तर हैं।
डायनेशेंग का जवाब और जेकेज का जवाब सही है। शीतल शाह द्वारा पोस्ट किया गया
एक नया उत्तर और भी बेहतर और पूर्ण उत्तर है।
हां, आंकड़ों में logit गणितीय फ़ंक्शन के रूप में, लेकिन logitतंत्रिका नेटवर्क के संदर्भ में उपयोग अलग है। सांख्यिकीय logitभी यहाँ कोई मतलब नहीं है।
मुझे कहीं भी एक औपचारिक परिभाषा नहीं मिली, लेकिन logitमूल रूप से इसका मतलब है:
कच्ची भविष्यवाणियां जो तंत्रिका नेटवर्क की अंतिम परत से निकलती हैं।
1. यह बहुत ही टेंसर है जिस पर आप argmaxपूर्वानुमानित वर्ग प्राप्त करने के लिए फ़ंक्शन को लागू करते हैं ।
2. यह बहुत ही टेंसर है जो आप softmaxअनुमानित कक्षाओं के लिए संभावनाओं को प्राप्त करने के लिए फ़ंक्शन में फ़ीड करते हैं।
इसके अलावा, आधिकारिक टेंसरफ़्लो वेबसाइट पर एक ट्यूटोरियल से :
लॉग्स लेयर
हमारे तंत्रिका नेटवर्क में अंतिम परत लॉगिट्स परत है, जो हमारे पूर्वानुमानों के लिए कच्चे मूल्यों को वापस कर देगी। हम रैखिक सक्रियण (डिफ़ॉल्ट) के साथ 10 न्यूरॉन्स (प्रत्येक लक्ष्य वर्ग 0–9 के लिए एक) के साथ एक घनी परत बनाते हैं:
logits = tf.layers.dense(inputs=dropout, units=10)
यदि आप अभी भी भ्रमित हैं, तो स्थिति इस प्रकार है:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
जहां, predicted_class_index_by_rawऔर predicted_class_index_by_probबराबर होगा।
raw_predictionsउपरोक्त कोड में एक और नाम हैlogit ।
के रूप में क्यों logit ... मुझे पता नहीं है। माफ़ करना।
[संपादित करें: शब्द के पीछे ऐतिहासिक प्रेरणाओं के लिए यह उत्तर देखें ।]
सामान्य ज्ञान
हालांकि, अगर आप चाहते हैं तो आपको सांख्यिकीय आवेदन कर सकते हैं logitकरने के लिए probabilitiesहै कि से बाहर आने के softmaxकार्य करते हैं।
यदि एक निश्चित वर्ग की संभावना है p,
तो उस वर्ग का लॉग-ऑड है L = logit(p)।
इसके अलावा, फ़ंक्शन p = sigmoid(L)का उपयोग करके उस वर्ग की संभावना को पुनर्प्राप्त किया जा सकता है sigmoid।
हालांकि लॉग-ऑड्स की गणना करने के लिए बहुत उपयोगी नहीं है।