अपने पिछले प्रश्न से आपने जाना कि GLM को प्रायिकता वितरण, लीनियर प्रेडिक्टर और लिंक फंक्शन g के रूप में वर्णित किया गया है और इसका वर्णन किया गया हैηg
ηE(Y|X)=Xβ=μ=g−1(η)
जहाँ एक लॉग लिंक फ़ंक्शन है और Y को बर्नौली वितरण का अनुसरण करने के लिए माना जाता हैgY
Yi∼B(μi)
प्रत्येक के साथ Bernoulli वितरण इस प्रकार अपने आप मतलब μ मैं उस पर सशर्त है एक्स । हम यह नहीं मान रहे हैं कि प्रत्येक Y i समान वितरण के साथ आता है, एक ही माध्य (यह इंटरसेप्ट-ओनली मॉडल Y i = g - 1 ( μ ) ) होगा, लेकिन ये सभी के अलग-अलग साधन हैं। हम मानते हैं कि वाई मैं के हैं स्वतंत्र , यानी इस तरह के बाद के बीच ऑटो सहसंबंध के रूप में हम चीजों के बारे में चिंता करने की ज़रूरत नहीं Y मैं सम्मान करता आदिYi μiXYiYi=g−1(μ)YiYi
आईआईडी धारणा रेखीय प्रतीपगमन (यानी गाऊसी GLM) है, जहां मॉडल है में त्रुटियों से संबंधित है
yi=β0+β1xi+εi=μi+εi
जहां , तो हम है आईआईडी शोर चारों ओर μ मैं । यही कारण है कि अवशेष डायग्नोस्टिक्स में रुचि रखते हैं और फिट किए गए अवशेषों पर ध्यान देते हैंεi∼N(0,σ2)μi भूखंड पर । अब, जीएलएम के लॉजिस्टिक रिग्रेशन के मामले में, यह इतना सरल नहीं है, क्योंकि गॉसियन मॉडल की तरह कोई एडिटिव नॉइज़ टर्म नहीं है ( यहां देखें , यहां और यहां देखें))। हम अभी भी अवशेषों को शून्य के आसपास "यादृच्छिक" होना चाहते हैं और हम उनमें कोई रुझान नहीं देखना चाहते हैं क्योंकि वे सुझाव देंगे कि कुछ प्रभाव हैं जो मॉडल के लिए जिम्मेदार नहीं हैं, लेकिन हम यह नहीं मानते हैं कि वे हैं सामान्य और / या iid । सांख्यिकीय सीखने के धागे में आईआईडी धारणा के महत्व पर भी देखें ।
एक विचार के रूप में, ध्यान दें कि हम इस धारणा को भी छोड़ सकते हैं कि प्रत्येक समान वितरण से आता है। वहाँ (गैर GLM) मॉडल मान लेते हैं कि अलग अलग है कि कर रहे हैं वाई मैं के विभिन्न मापदंडों, यानी कि आप अपने डेटा एक से आता है के साथ विभिन्न वितरण हो सकता है विभिन्न वितरण का मिश्रण । ऐसे मामले में हम यह भी मानेंगे कि वाई i का मूल्य स्वतंत्र है , निर्भर मूल्यों के बाद से, विभिन्न मापदंडों (यानी विशिष्ट वास्तविक दुनिया डेटा) के साथ अलग-अलग वितरणों से आ रहा है, जो कि ज्यादातर मामलों में मॉडल से जटिल होता है (अक्सर असंभव) ।YiYiYi