के साथ थोड़ा और सामान्य संदर्भ में Y एक nके आयामी वेक्टर y-संवाद (प्रतिक्रियाएँ या आश्रित चर), X एक n×p का मैट्रिक्स x-बॉक्सेशन (सहसंयोजक, या आश्रित चर) और θ=(β1,β2,σ) इस तरह के मापदंडों Y∼N(Xβ1,Σ(β2,σ)) फिर ऋण-लॉग-संभावना है
l(β1,β2,σ)=12(Y−Xβ1)TΣ(β2,σ)−1(Y−Xβ1)+12log|Σ(β2,σ)|
ओपी के प्रश्न में,
Σ(β2,σ) के साथ विकर्ण है
Σ(β2,σ)ii=σ2g(zTiβ2)2
इसलिए निर्धारक बनता है
σ2n∏ni=1g(zTiβ2)2 और परिणामस्वरूप घटा-लॉग-संभावना बन जाती है
12σ2∑i=1n(yi−xTiβ1)2g(zTiβ2)2+nlogσ+∑i=1nlogg(zTiβ2)
इस फ़ंक्शन के न्यूनतमकरण के दृष्टिकोण के कई तरीके हैं (तीन मापदंडों को स्वतंत्र मानते हुए भिन्नता है)।
- आप एक मानक अनुकूलन एल्गोरिथ्म द्वारा समारोह को कम करने की कोशिश कर सकते हैं जो कि बाधा को याद करते हैं σ>0।
- आप की प्रोफाइल माइनस-लॉग-संभावना की गणना कर सकते हैं (β1,β2) कम से कम करके σ तय हो गया (β1,β2), और फिर परिणामी फ़ंक्शन को एक मानक अप्रतिबंधित अनुकूलन एल्गोरिथ्म में प्लग करें।
- आप अलग-अलग तीनों मापदंडों में से प्रत्येक के अनुकूलन के बीच वैकल्पिक रूप से कर सकते हैं। पर अनुकूलनσ पर अनुकूलन करके, विश्लेषणात्मक रूप से किया जा सकता है β1 एक कम से कम वर्गों प्रतिगमन समस्या है, और अधिक अनुकूलन β2 के साथ एक गामा सामान्यीकृत रैखिक मॉडल फिटिंग के बराबर है g2 उलटा लिंक।
अंतिम सुझाव मुझे अपील करता है क्योंकि यह उन समाधानों पर बनाता है जिन्हें मैं पहले से ही अच्छी तरह से जानता हूं। इसके अलावा, पहला पुनरावृत्ति कुछ है जिसे मैं वैसे भी करने पर विचार करूंगा। यही है, पहले एक प्रारंभिक अनुमान की गणना करेंβ1 साधारण कम से कम वर्गों द्वारा संभावित विषमता को अनदेखा करना, और फिर एक प्रारंभिक अनुमान प्राप्त करने के लिए वर्ग के अवशेषों में एक गामा चमक फिट करना β2 −बस यह जांचने के लिए कि क्या अधिक जटिल मॉडल सार्थक लगता है। कम से कम वर्गों के समाधान में हेटेरोसेडासिटी को शामिल करते हुए पुनरावृत्तियां तब अनुमान पर सुधार कर सकती हैं।
प्रश्न के दूसरे भाग के बारे में, मैं शायद रैखिक संयोजन के लिए एक आत्मविश्वास अंतराल की गणना करने पर विचार करूंगा wT1β1+wT2β2 या तो मानक MLE एसिम्पटोटिक्स (सिमुलेशन के साथ जाँच करना कि असेम्पटिक्स काम करता है) या बूटस्ट्रैपिंग द्वारा।
संपादित करें: मानक MLE एसिम्पटोटिक्स द्वारा मेरा मतलब बहुराष्ट्रीय सामान्य सन्निकटन के साथ MLE के वितरण के लिए सहसंयोजक मैट्रिक्स के साथ उलटा फिशर जानकारी है। फिशर जानकारी परिभाषा के सहसंयोजक मैट्रिक्स की परिभाषा के अनुसार हैl। यह सामान्य तौर पर मापदंडों पर निर्भर करता है। यदि आप इस मात्रा के लिए एक विश्लेषणात्मक अभिव्यक्ति पा सकते हैं, तो आप MLE में प्लगिंग की कोशिश कर सकते हैं। विकल्प में, आप फिशर की जानकारी का अवलोकन फिशर जानकारी से कर सकते हैं, जो कि हेसियन हैlMLE में। आपकी रुचि का पैरामीटर दो में मापदंडों का एक रैखिक संयोजन हैβ-वेक्टर, इसलिए MLE के अनुमानित मल्टीवेरेट से आप यहां वर्णित अनुमानी वितरण का एक सामान्य सन्निकटन पा सकते हैं । यह आपको एक अनुमानित मानक त्रुटि देता है और आप विश्वास अंतराल की गणना कर सकते हैं। यह कई (गणितीय) सांख्यिकी पुस्तकों में अच्छी तरह से वर्णित है, लेकिन एक यथोचित सुलभ प्रस्तुति जिसकी मैं सिफारिश कर सकता हूं, वह है यूडी पवितन द्वारा सभी संभावनाएं। वैसे भी, स्पर्शोन्मुख सिद्धांत की औपचारिक व्युत्पत्ति काफी जटिल है और कई नियमित स्थितियों पर निर्भर करती है, और यह केवल मान्य स्पर्शोन्मुखता देती हैवितरण। इसलिए, अगर संदेह में मैं हमेशा एक नए मॉडल के साथ कुछ सिमुलेशन करने के लिए जाँच करूंगा कि क्या मैं यथार्थवादी मापदंडों और नमूना आकारों के परिणामों पर भरोसा कर सकता हूं। सरल, गैर-पैरामीट्रिक बूटस्ट्रैपिंग जहां आप तीनों का नमूना लेते हैं(yi,xi,zi) प्रतिस्थापन के साथ सेट किए गए डेटा से, एक उपयोगी विकल्प हो सकता है यदि फिटिंग प्रक्रिया बहुत समय लेने वाली नहीं है।