प्रतिगमन गुणांक का नमूना वितरण


11

मैंने पहले नमूने के वितरण के बारे में सीखा जो अज्ञात पैरामीटर के संदर्भ में, अनुमानक के लिए परिणाम देता था। उदाहरण के लिए, रैखिक प्रतिगमन मॉडल में और के नमूने वितरण के लिए β 1Yमैं=β+β1एक्समैं+εमैंβ^0β^1Yमैं=β+β1एक्समैं+εमैं

β^0~एन(β0, σ2(1n+एक्स¯2एसएक्सएक्स))
और
β^1~एन(β1, σ2एसएक्सएक्स)

जहाँएसएक्सएक्स=Σमैं=1n(एक्समैं2)-nएक्स¯2

लेकिन अब मैंने निम्नलिखित को एक पुस्तक में देखा है :

मान लें कि हम सामान्य तरीके से मॉडल को कम से कम वर्गों में फिट करते हैं। बायेसियन पश्च वितरण पर विचार करें, और पुजारी चुनें ताकि यह सामान्य लगातार नमूना वितरण के बराबर हो, अर्थात ...

(β0β1)N2[(β^1β^2), σ^2(ni=1nxii=1nxमैंΣमैं=1nएक्समैं2)-1]

यह मुझे भ्रमित कर रहा है क्योंकि:

  1. पहले 2 भावों के बाएँ हाथ (lhs) और अंतिम अभिव्यक्ति के दाएँ हाथ (rhs) पर अनुमान क्यों दिखाई देते हैं?
  2. अंतिम अभिव्यक्ति में बीटा हाटों में 0 और 1 के बजाय 1 और 2 सदस्यता क्यों हैं?
  3. क्या ये एक ही चीज़ के अलग-अलग प्रतिनिधित्व हैं? यदि वे हैं, तो क्या कोई दिखा सकता है कि वे कैसे समकक्ष हैं? यदि नहीं, तो क्या कोई अंतर समझा सकता है?
  4. क्या यह मामला है कि अंतिम अभिव्यक्ति पहले दो का "उलटा" है? क्या यही कारण है कि अंतिम अभिव्यक्ति में 2x2 मैट्रिक्स उलटा है और अनुमान / पैरामीटर rhs leftrightarrow lhs से स्विच किए जाते हैं ? यदि ऐसा है तो कोई मुझे यह दिखा सकता है कि एक से दूसरे को कैसे प्राप्त किया जाए?

जवाबों:


7

यह भाग मुख्य रूप से आपके पहले, तीसरे और चौथे प्रश्न से संबंधित है:

बायेसियन सांख्यिकी और लगातार आंकड़ों के बीच एक बुनियादी अंतर है।

फ़्रीक्वेंटिस्ट आँकड़ों से यह पता चलता है कि कौन से निश्चित पैरामीटर मान डेटा के साथ सुसंगत हैं, जिन्हें आमतौर पर संभावना के माध्यम से देखा जाता है। आप निश्चित रूप से अज्ञात के रूप में ( (कुछ पैरामीटर या पैरामीटर) लेते हैं , और देखते हैं कि कौन से डेटा को अधिक संभावना बनाते हैं; यह कुछ मॉडल से नमूने के गुणों को देखता है, जहां पैरामीटर हो सकता है के बारे में अनुमान लगाने के लिए पैरामीटर दिए गए हैं। (एक बायेसियन कह सकता है कि अक्सरवादी दृष्टिकोण 'उन चीजों की आवृत्तियों पर आधारित होता है जो नहीं हुआ था')θ

बायेसियन आँकड़े मापदंडों पर जानकारी को उन पर एक संभाव्यता वितरण के संदर्भ में देखते हैं, जो डेटा द्वारा, संभावना के माध्यम से अद्यतन किया जाता है। पैरामीटर में वितरण हैं, इसलिए आप ।पी(θ|एक्स_)

यह उन चीजों में परिणत होता है, जो अक्सर समान दिखती हैं, लेकिन जहां चर एक "गलत तरीके से दिखते हैं" इसके बारे में सोचने के दूसरे तरीके के लेंस के माध्यम से देखा जाता है।

इसलिए, मौलिक रूप से वे कुछ अलग चीजें हैं, और तथ्य यह है कि एक के एलएचएस पर जो चीजें हैं, दूसरे के आरएचएस पर हैं कोई दुर्घटना नहीं है।

यदि आप दोनों के साथ कुछ काम करते हैं, तो यह जल्द ही स्पष्ट हो जाता है।

दूसरा सवाल मुझे केवल एक टाइपो से संबंधित लगता है।

---

बयान "सामान्य रूप से लगातार नमूना लेने वाले वितरण के बराबर है, वह है": मैंने इसका मतलब यह निकाला कि लेखक लगातार नमूना वितरण वितरण कर रहे थे। क्या मैंने इसे गलत तरीके से पढ़ा है?

वहाँ दो चीजें चल रही हैं - उन्होंने कुछ शिथिल रूप से व्यक्त किया है (लोग हर समय इस तरह की अति-ढीली अभिव्यक्ति करते हैं), और मुझे लगता है कि आप इसे इरादे से अलग तरीके से व्याख्या कर रहे हैं।

वास्तव में वे जो अभिव्यक्ति देते हैं, उसका क्या मतलब है?

उम्मीद है नीचे दी गई चर्चा से अभिप्रेत अर्थ को स्पष्ट करने में मदद मिलेगी।

यदि आप एक संदर्भ प्रदान कर सकते हैं (प्रीफ़ ऑनलाइन। जैसा कि मेरे पास अच्छा पुस्तकालय नहीं है) जहां यह अभिव्यक्ति प्राप्त होती है मैं आभारी रहूंगा।

यह यहाँ से सही है:

http://en.wikipedia.org/wiki/Bayesian_linear_regression

फ्लैट पुजारियों को पर ले जाकर और मुझे लगता है कि फ्लैट से पहले के लिए भी।σ 2βσ2

कारण यह है कि पोस्टीरियर संभावना के समानुपाती है और मापदंडों पर पोस्टएयर से उत्पन्न अंतराल मापदंडों के लिए लगातार विश्वास अंतराल से मेल खाते हैं।

हो सकता है कि आपको पहले कुछ पृष्ठ यहां भी उपयोगी लगे।


धन्यवाद, यह मददगार है। मैंने पहले से ही थोड़ा बायेसियन आँकड़े लिए हैं। मैं अभी भी कुछ हद तक उलझन में हूँ, क्योंकि बयान "सामान्य रूप से लगातार नमूना लेने वाले वितरण के बराबर है, वह है" : मैंने इसका मतलब यह निकाला कि लेखक लगातार नमूना वितरण वितरण कर रहे थे। क्या मैंने इसे गलत तरीके से पढ़ा है? वास्तव में वे जो अभिव्यक्ति देते हैं, उसका क्या मतलब है? यदि आप एक संदर्भ प्रदान कर सकते हैं (प्रीफ़ ऑनलाइन। जैसा कि मेरे पास अच्छा पुस्तकालय नहीं है) जहां यह अभिव्यक्ति प्राप्त होती है मैं आभारी रहूंगा।
जो राजा

जो - ऊपर मेरा संपादन देखें
Glen_b -Reinstate Monica
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.