लॉजिस्टिक रिग्रेशन गुणांक का विश्लेषण


12

यहाँ लॉजिस्टिक रिग्रेशन गुणांक की एक सूची है (पहले एक अवरोधन है)

-1059.61966694592
-1.23890500515482
-8.57185269220438
-7.50413155570413
 0
 1.03152408392552
 1.19874787949191
-4.88083274930613
-5.77172565873336
-1.00610998453393

मुझे यह अजीब लगता है कि अवरोधन कितना कम है और मेरे पास एक गुणांक है जो वास्तव में 0. के बराबर है। मुझे पूरी तरह से यकीन नहीं है कि मैं इसकी व्याख्या कैसे करूंगा। क्या 0 दर्शाता है कि विशिष्ट चर का मॉडल पर कोई प्रभाव नहीं है? लेकिन किसी के कॉलम को इनपुट करके बनाया गया इंटरसेप्ट अचानक बहुत महत्वपूर्ण है? या मेरा डेटा सिर्फ बकवास है और मॉडल इसे ठीक से फिट करने में असमर्थ है।


2
आपके अन्य चर की सीमा या मानक विचलन क्या है? क्या अन्य की तुलना में शून्य अनुमान के साथ चर के मानक विचलन के बीच एक बड़ा अंतर है? यदि मानक विचलन अन्य (संख्यात्मक परिशुद्धता) की तुलना में छोटा है, तो आप शून्य के गुणांक की उम्मीद कर सकते हैं। मूल रूप से अवरोधन का अर्थ है कि आपके पास वे चर हैं जो बड़े औसत (शून्य से दूर) हैं। अपने चरों को केंद्रित करना अधिक व्याख्यात्मक अवरोधन देगा, और अन्य चर (पुनरावृत्ति एल्गोरिथ्म को एक तरफ) के लिए दांव को नहीं बदलेगा।
probabilityislogic

1
यदि आप छठे चर के सभी मानों से 1027 घटाते हैं, तो आपका अवरोधन 0. के करीब होगा। क्या यह आपको बेहतर महसूस कराएगा? :-)
whuber

4
इस तरह के गुणांक की एक सूची दिखा रहा है, जिसमें कोई संदर्भ नहीं है, संभावना है कि "जो 31 है, वह बहुत कुछ नहीं है?" बिना कहे 31 क्या । 31 कारें? बहुत। 31 बच्चे? एक बहुत की बिल्ली! 31 डॉलर? बहुत ज्यादा नहीं।
पीटर Flom - को पुनः स्थापित मोनिका

1
शून्य के गुणांक के बारे में: मैं इसे अपने सभी गुणांक को एक्सएल में डालने से पहले यहां पर चिपकाने की एक कलाकृतियों के रूप में देख सकता हूं - ऐसा कुछ जो दशमलव स्थानों की उच्च संख्या के अनुरूप लगता है जो हम आम तौर पर देख रहे हैं। हो सकता है कि उन एक्स्ट्रा लार्ज कोशिकाओं में से एक को पूर्णांक तक, शून्य की पैदावार के लिए निर्धारित किया गया था। मेरे पास इस तरह की चीजें हैं।
rolando2

आपके इनपुट के लिए आप सभी का धन्यवाद! मैं वास्तव में आप में से हर एक की सराहना करता हूं! मेरे बहुत से सवालों के जवाब दिए गए थे
shiu6rewgu

जवाबों:


16

आपको मेरी राय में, टिप्पणियों में कुछ बहुत अच्छी जानकारी मिल रही है। मुझे आश्चर्य है कि अगर लॉजिस्टिक रिग्रेशन के बारे में कुछ बुनियादी तथ्य इन बातों को अधिक सहज बनाने में मदद करेंगे, तो इस बात को ध्यान में रखते हुए, मुझे कुछ चीजों को बताने की आवश्यकता है। लॉजिस्टिक रिग्रेशन में, गुणांक लॉजिस्टिक स्केल पर होते हैं (इसलिए नाम ...)। यदि आप अवलोकन के लिए अपने सहसंयोजक मूल्यों में प्लग करना चाहते हैं, तो उन्हें गुणांक द्वारा गुणा करें, और उन्हें योग करें, आपको एक लॉगिट मिलेगा ।

logit=β0+β1एक्स1+β2एक्स2++βएक्स
एक लॉगिन एक संख्या है जो किसी को भी सहज ज्ञान युक्त नहीं बनाता है, इसलिए यह जानना बहुत मुश्किल है कि किसी संख्या के साथ क्या करना मज़ेदार लगता है (जैसे, बहुत अधिक या बहुत कम)। इन चीजों को समझने का सबसे अच्छा तरीका है कि उन्हें उनके मूल पैमाने (लॉग्स) से एक में परिवर्तित किया जाए जिसे आप समझ सकते हैं, विशेष रूप से संभाव्यताएं। ऐसा करने के लिए, आप अपना लॉगिट लेते हैं और उसे एक्सपेक्ट करते हैं। इसका मतलब है कि आप नंबर लेने के ( ) और logit की शक्ति के लिए यह बढ़ा। कल्पना कीजिए कि आपका लॉग 2 था: 2 = 7.389056 यह आपको अंतर देगा। आप बाधाओं को एक से अधिक करके बाधाओं को एक संभावना में परिवर्तित कर सकते हैं: 7.389056२.७१,८२,८१,८२८
2=7.389056
लोग आमतौर पर संभावना को बहुत आसानी सेसमझ लेते हैं
7.3890561+7.389056=0.880797

अपने मॉडल के लिए, कल्पना करें कि आपके पास एक अवलोकन था जिसमें आपके सभी चर का मूल्य ठीक 0 है, फिर आपके सभी गुणांक बाहर गिर जाएंगे और आप केवल आपके अवरोधन मूल्य के साथ रह जाएंगे। यदि हम आपके मूल्य का वर्णन करते हैं, तो हमें 0 प्राप्त होता है, जैसा कि (-700 था, तो यह अंतर , लेकिन मैं अपने कंप्यूटर को -1060 के लिए मान देने के लिए नहीं मिल सकता, यह बहुत छोटा है मेरे सॉफ्टवेयर की संख्यात्मक सीमा को देखते हुए)। उन बाधाओं को एक संभावना में परिवर्तित करना, ( 0 / ( 1 + 0 )9.8×10-3050/(1+0)), हमें फिर से 0 देता है। इस प्रकार, जो आपका आउटपुट आपको बता रहा है वह यह है कि आपकी घटना (जो भी हो) बस तब नहीं होती है जब आपके सभी चर 0. के बराबर होते हैं, यह इस बात पर निर्भर करता है कि हम किस बारे में बात कर रहे हैं, लेकिन मुझे इसके बारे में कुछ भी उल्लेखनीय नहीं लगता है यह। एक मानक लॉजिस्टिक रिग्रेशन समीकरण (उदाहरण के लिए, एक चुकता शब्द के बिना, उदाहरण के लिए) आवश्यक रूप से मानता है कि एक सहसंयोजक और सफलता की संभावना के बीच संबंध या तो नीरस रूप से बढ़ रहा है या नीरस रूप से कम हो रहा है। इसका मतलब है कि यह हमेशा बड़ा और बड़ा (या छोटा और छोटा) होता है, और इसलिए, यदि आप एक दिशा में बहुत दूर जाते हैं, तो आपको संख्या इतनी कम मिलेगी कि मेरा कंप्यूटर उन्हें 0. के अलावा नहीं बता सकता है। यह सिर्फ इतना है जानवर की प्रकृति। जैसा कि होता है, आपके मॉडल के लिए, वास्तव में बहुत दूर जा रहा है जहाँ आपके कोवरिएट वैल्स 0 के बराबर हैं।

जैसा कि 0 के गुणांक के लिए, इसका मतलब यह है कि चर का कोई प्रभाव नहीं है, जैसा कि आप सुझाव देते हैं। अब, यह काफी उचित है कि एक चर का प्रभाव नहीं होगा, फिर भी, आपको मूल रूप से कभी भी ठीक 0. का गुणांक नहीं मिलेगा। मुझे नहीं पता कि यह इस मामले में क्यों हुआ; टिप्पणियाँ कुछ संभावित सुझाव प्रदान करती हैं। मैं एक और पेशकश कर सकता हूं, जो यह है कि उस चर में कोई भिन्नता नहीं हो सकती है। उदाहरण के लिए, यदि आपके पास एक चर है जो सेक्स के लिए कोडित है, लेकिन आपके नमूने में केवल महिलाएं हैं। मुझे नहीं पता कि यह वास्तविक उत्तर है (उदाहरण के लिए आर, NAउस मामले में रिटर्न , लेकिन सॉफ्टवेयर अलग है) - यह सिर्फ एक और सुझाव है।


2
ध्यान दें कि आप प्राकृतिक लॉग बाधाओं को से गुणा करके आधार को दस तक ले जा सकते हैं30670037-46010-460

10

इंटरसेप्ट की व्याख्या करना

आप लॉजिस्टिक रिग्रेशन के बारे में सोच सकते हैं क्योंकि इससे आपको '1' होने की संभावना है। इंटरसेप्ट डेटासेट से प्राप्त श्रेणियों पर एक पूर्व का प्रतिनिधित्व करता है: विशेष रूप से, यह लॉग का अनुभवजन्य अनुमान है (p (Y = 1) / p (Y = 0), जब मॉडल केवल एक अवरोधन होता है, तो मामलों में the संदर्भ ’वर्ग जब श्रेणीबद्ध सहसंयोजक होते हैं, और ऐसे मामलों के लिए जब सहसंयोजक 0 पर अधिक सामान्य रूप से (लेकिन कम व्याख्यात्मक रूप से) होते हैं। तो आपका दृढ़ता से नकारात्मक संख्या शायद आपको बता रही है कि आपके नमूने में मामलों में से 1 दुर्लभ हैं। 0. पर सभी covariates होने पर, वहाँ कोई अवलोकन नहीं हो सकता है, इसलिए यह अवरोधन मूल्य के बारे में चिंता करने योग्य नहीं है। यह चर्चा काफी स्पष्ट है।

मापदंडों के बीच चिंताओं के इस आसान पृथक्करण के कारण, आप बेहतर संतुलित नमूने पर प्रशिक्षण और केवल अवरोधन को समायोजित करके श्रेणी असंतुलन को ठीक कर सकते हैं । किंग और ज़ेंग को गहन चर्चा के लिए देखें ।


"यह चर्चा" का लिंक मर गया लगता है। इस लिंक को पुनर्प्राप्त करने का कोई मौका?
एलेक्सी

1
@ एलेक्सी-grigorev मैं यूसीएलए लिंक अद्यतन
conjugateprior

और नीचे की ओर कूच किया। बहुत अजीब।
conjugateprior
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.