जीएलएम एक परिवर्तनीय चर के साथ एलएम से अलग क्यों है


16

जैसा कि इस कोर्स हैंडआउट (पेज 1) में बताया गया है , एक रेखीय मॉडल को फॉर्म में लिखा जा सकता है:

y=β1x1++βpxp+εi,

जहाँ y प्रतिक्रिया चर है और xi , ith व्याख्यात्मक चर है।

अक्सर परीक्षण मान्यताओं को पूरा करने के लक्ष्य के साथ, कोई भी प्रतिक्रिया चर को बदल सकता है। उदाहरण के लिए हम प्रत्येक पर लॉग समारोह लागू yi । प्रतिक्रिया चर को बदलना GLM करने के बराबर नहीं है।

एक जीएलएम को निम्न रूप में लिखा जा सकता है ( पाठ्यक्रम के हैंडआउट से फिर से (पेज 3) )

g(u)=β1x1++βpxp+εi,

जहां uy लिए सिर्फ एक और प्रतीक हैं, जैसा कि मैं कोर्स हैंडआउट में पेज 2 से समझता हूं। g() को लिंक फंक्शन कहा जाता है।

मैं वास्तव में एक GLM और LM के बीच के अंतर को पाठ्यक्रम में स्लाइड से परिवर्तित चर के साथ नहीं समझता। क्या उसके लिए आपके द्वारा मेरी मदद की जाएगी?


2
आप इस तथ्य पर विचार करने के लिए रोशन हो सकते हैं कि एक द्विआधारी परिणाम के सभी परिवर्तन चक्करदार होते हैं, जो आपको सामान्य से कम वर्ग प्रतिगमन तक सीमित कर देगा। यह स्पष्ट रूप से नहीं है कि लॉजिस्टिक प्रतिगमन (बाइनरी प्रतिक्रियाओं के लिए एक मानक जीएलएम) क्या पूरा कर रहा है। (सबूत: परिणाम मूल्यों के रूप में एन्कोड किया जाना दें और y 1 और जाने φ किसी भी परिवर्तन होना लेखन। Z 0 = φ ( y 0 ) और जेड 1 = φ ( y 1 ) हम पाते हैं φ पर सहमत { yy0y1ϕz0=ϕ(y0)z1=ϕ(y1)ϕ के साथ y λ y + μ (जिनमें से एक affine परिवर्तन है y जहां) λ = ( z 1 - जेड 0 ) / ( y 1 - y 0 ) और μ = z 0 - λ y 0 ।){y0,y1}yλy+μyλ=(z1z0)/(y1y0)μ=z0λy0
व्हिबर

जवाबों:


15

रैखिक प्रतिगमन करने से पहले प्रतिक्रिया को बदलना यह कर रहा है:

E(g(Y))β0+β1x1++βpxp

जहाँ एक दिया गया कार्य है, और हम मानते हैं कि जी ( वाई ) का एक दिया वितरण है (आमतौर पर सामान्य)।gg(Y)

एक सामान्यीकृत रैखिक मॉडल यह कर रहा है:

g(E(Y))β0+β1x1++βpxp

जहाँ पहले जैसा ही है, और हम मानते हैं कि Y का दिया हुआ वितरण है (आमतौर पर सामान्य नहीं)।gY


आपके समीकरण में E क्या है?
user1406647

1
की उम्मीद के मूल्य के लिए मानक संकेत है एक्सE(X)X
मार्कस पीएस

मुझे यह मददगार भी लगा: christoph-scherber.de/content/PDF%20Files/…
आदित्य

22

मुझे यकीन नहीं है कि यह आपके लिए एक पूर्ण उत्तर का गठन करेगा, लेकिन यह वैचारिक लॉगजैम को मुक्त करने में मदद कर सकता है।

आपके खाते में दो गलत धारणाएं हैं:

  1. यह ध्यान रखें कि साधारण से कम वर्ग (OLS - 'रैखिक') प्रतिगमन है सामान्यीकृत रैखिक मॉडल एक विशेष मामला है। इस प्रकार, जब आप कहते हैं "[t] एक प्रतिक्रिया चर ransforming एक GLM करने के लिए बराबर नहीं है", यह गलत है। एक लीनियर मॉडल को फिट करना या रिस्पांस वैरिएबल को बदलना और फिर एक लीनियर मॉडल को फिट करना दोनों ही 'GLM करते हैं'।

  2. uμXuyYyiYiy

    (मेरा मतलब गलतियों पर चोट करना नहीं है, मुझे बस संदेह है कि ये आपके भ्रम का कारण बन सकते हैं।)

  3. सामान्यीकृत रैखिक मॉडल का एक और पहलू भी है जिसका मैं आपको उल्लेख नहीं करता हूं। वह यह है कि हम एक प्रतिक्रिया वितरण निर्दिष्ट करते हैं। ओएलएस प्रतिगमन के मामले में, प्रतिक्रिया वितरण गाऊसी (सामान्य) है और लिंक फ़ंक्शन पहचान फ़ंक्शन है। के मामले में, कहते हैं, लॉजिस्टिक रिग्रेशन (जो लोग पहले सोचते हैं कि वे कब GLMs के बारे में सोचते हैं), प्रतिक्रिया वितरण बर्नौली (/ द्विपद) है और लिंक फ़ंक्शन लॉगिट है। जब ओएलएस के लिए मान्यताओं को पूरा करने के लिए परिवर्तनों का उपयोग किया जाता है, तो हम अक्सर सशर्त प्रतिक्रिया वितरण को सामान्य रूप से सामान्य बनाने की कोशिश कर रहे हैं। हालांकि, इस तरह का कोई भी परिवर्तन बर्नौली वितरण को सामान्य रूप से सामान्य नहीं बनाएगा।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.