टोबिट रिग्रेशन मॉडल लागू करने के लिए क्या धारणाएं हैं?


9

टोबिट रिग्रेशन मॉडल का मेरा (बहुत बुनियादी) ज्ञान एक वर्ग से नहीं है, जैसे मैं पसंद करूंगा। इसके बजाय, मैंने कई इंटरनेट खोजों के माध्यम से यहां और वहां जानकारी के टुकड़े उठाए हैं। छंटनी प्रतिगमन के लिए मान्यताओं पर मेरा सबसे अच्छा अनुमान है कि वे सामान्य न्यूनतम वर्गों (ओएलएस) मान्यताओं के समान हैं। मुझे नहीं पता कि अगर यह सही है, हालांकि।

इसलिए मेरा प्रश्न: टोबिट रिग्रेशन करते समय मुझे किन मान्यताओं की जांच करनी चाहिए?

नोट: इस प्रश्न का मूल रूप छंटनी प्रतिगमन के लिए संदर्भित है, जो वह मॉडल नहीं था जिसका मैं उपयोग कर रहा था या जिनके बारे में पूछ रहा था। मैंने सवाल सही किया है।


1
आपको केवल काटे गए प्रतिगमन का उपयोग नहीं करना चाहिए क्योंकि आपके पास तिरछा या बाध्य डेटा है। यह विशेष रूप से उन स्थितियों के लिए है जब एक सीमा से नीचे के मूल्य (जैसे नकारात्मक मूल्य) संभव हैं, लेकिन किसी कारण से मनाया नहीं जाएगा। क्या आपके पास यह स्थिति है?
अनीको

@ एनिको, आश्रित चर के नकारात्मक मूल्य वास्तव में कोई मतलब नहीं है (इसका मतलब यह होगा कि एक सेवा प्राप्त करने के लिए भुगतान किया जा रहा है), लेकिन मैंने सुना है कि वोल्ड्रिज ( क्रॉस सेक्शन और पैनल डेटा , 2002 के इकॉनोमेट्रिक एनालिसिस में ) ने छंटनी की सिफारिश की थी ओएलएस के बजाय सेंसर या रिग्रेशन मॉडल जब अभी तक सकारात्मक मूल्यों पर एक सतत यादृच्छिक चर है। पी(Y=0)>0Y
फायरफाइटर

बहुत बड़ी गलती; मुझे एहसास हुआ कि मेरा मतलब टोबिट रिग्रेशन है, न कि ट्रंचित रिग्रेशन। मैंने बस इस त्रुटि को प्रतिबिंबित करने के लिए प्रश्न को बदल दिया।
फायरफाइटर

वोल्ड्रिज संदर्भ अभी भी सही संदर्भ है; यानी, यह टोबिट रिग्रेशन को संदर्भित करता है।
फायरफाइटर

Aniko सही है, कि सबसे अच्छा विकल्प नहीं हो सकता है। विकल्पों के बारे में जानने के लिए निम्नलिखित पर एक नज़र डालें: ideas.repec.org/p/boc/bost10/2.html

जवाबों:


6

यदि हम एक सरल उत्तर के लिए जाते हैं, तो वोल्ड्रिज पुस्तक (पृष्ठ 533) का अंश बहुत उपयुक्त है:

... दोनों विषमलैंगिकता और गैर-असमानता का परिणाम टोबेट अनुमानक में होता है β^ के लिए असंगत होना β। यह असंगति इसलिए होती है क्योंकि व्युत्पन्न घनत्वy दिया हुआ एक्स पर महत्वपूर्ण टिका है y*|एक्स~एनआरएल(एक्सβ,σ2)। टोबाइट अनुमानक की यह गैर-बराबरी यह दर्शाती है कि डेटा सेंसर करना बहुत महंगा हो सकता है: सेंसर के अभाव में (y=y*) β के तहत लगातार अनुमान लगाया जा सकता है (यू|एक्स)=0 [या और भी (एक्स'यू)=0]।

इस अंश में नोट टोबिट मॉडल से आया है:

y*=एक्सβ+यू,यू|एक्स~एन(0,σ2)y*=अधिकतम(y*,0)
कहाँ पे y तथा एक्स मनाया जाता है।

कम से कम वर्गों और टोबिट प्रतिगमन के बीच अंतर को योग करने के लिए उत्तरार्द्ध में सामान्यता की अंतर्निहित धारणा है।

इसके अलावा, मैंने हमेशा सोचा था कि टोबिट रिग्रेशन की सैद्धांतिक नींव रखने में अम्मीना का मूल लेख काफी अच्छा था।


वाह! देखने योग्य संदर्भ खोजने के लिए धन्यवाद-मैंने वोल्ड्रिज की किताब की एक प्रति की तलाश में Google पुस्तकें देखने के लिए नहीं सोचा था।
फायरफाइटर

4

एनिको की टिप्पणी को प्रतिध्वनित करने के लिए: प्राथमिक धारणा ट्रंकेशन का अस्तित्व है। यह दो अन्य संभावनाओं के रूप में एक ही धारणा नहीं है कि आपकी पोस्ट मुझे सुझाव देती है: सीमा और नमूना चयन।

यदि आपके पास एक कटे-फटे के बजाय एक मूलभूत रूप से बंधे हुए आश्रित चर हैं, तो आप एक उदाहरण के लिए Y (लॉग-सामान्य, गामा, घातांक, आदि) के लिए (कम अक्सर चुने गए) वितरण के साथ एक सामान्यीकृत रैखिक मॉडल ढांचे में स्थानांतरित करना चाह सकते हैं। निम्न परिबंध।

वैकल्पिक रूप से आप अपने आप से पूछ सकते हैं कि क्या आपको लगता है कि आपके मॉडल में शून्य टिप्पणियों को उत्पन्न करने वाली प्रक्रिया वही है जो सख्ती से सकारात्मक मूल्यों को उत्पन्न करती है - आपके आवेदन में कीमतें, मुझे लगता है। यदि यह मामला नहीं है, तो नमूना चयन मॉडल के वर्ग से कुछ , (उदाहरण के लिए हेकमैन मॉडल) उपयुक्त हो सकता है। उस स्थिति में आप किसी भी कीमत का भुगतान करने के इच्छुक किसी एक मॉडल को निर्दिष्ट करने की स्थिति में होंगे, और यदि वे कुछ भुगतान करना चाहते हैं तो आपके विषय का कोई अन्य मॉडल किस कीमत का भुगतान करेगा।

संक्षेप में, आप संभवतः चयनित चयनित आश्रितों को काट-छाँट, सेंसर किए गए, बाध्य, और नमूना मानने के बीच अंतर की समीक्षा करना चाहते हैं। आप जो चाहते हैं, वह आपके आवेदन के विवरण से आएगा। एक बार जब पहली सबसे महत्वपूर्ण धारणा बन जाती है तो आप यह आसानी से निर्धारित कर सकते हैं कि आपको अपने चुने हुए वर्ग में किसी मॉडल की विशिष्ट धारणाएँ पसंद हैं या नहीं। कुछ नमूना चयन मॉडल में ऐसी धारणाएँ हैं जिन्हें जाँचना मुश्किल है ...


3

@ फ़ायरफ़ायर: क्या आपके डेटा में (और वास्तव में कभी भी हो सकता है) केवल सकारात्मक मूल्य हैं? यदि हां, तो गामा त्रुटि और लॉग लिंक के साथ सामान्यीकृत रैखिक मॉडल का उपयोग करके इसे मॉडल करें। यदि इसमें शून्य शामिल है तो आप एक दो चरण (सकारात्मक के लिए शून्य और गामा प्रतिगमन की संभावना के लिए लॉजिस्टिक प्रतिगमन) पर विचार कर सकते हैं। इस बाद के परिदृश्य को भी एक एकल प्रतिगमन के रूप में एक शून्य फुलाया गामा का उपयोग करके तैयार किया जा सकता है। इसके कुछ महान स्पष्टीकरण कुछ साल पहले एसएएस सूची में दिए गए थे। यदि दिलचस्पी है और अनुवर्ती खोज करें तो यहां से शुरू करें। लिंक पाठ

यदि छिन्न प्रतिगमन अव्यवस्थित निकला तो दूसरी दिशा में आपकी मदद कर सकता है।


2

जैसा कि अन्य लोगों ने यहां उल्लेख किया है, इनबिट रिग्रेशन का मुख्य अनुप्रयोग वह है जहां डेटा को सेंसर करना है। टोबिट का व्यापक रूप से डेटा एनवलपमेंट एनालिसिस (DEA) और अर्थशास्त्री के संयोजन में किया जाता है। DEA में, दक्षता स्कोर 0 और 1 के बीच होता है, जिसका अर्थ है कि आश्रित चर को 0 से बाएं और 1 को दाएं से सेंसर किया जाता है। इसलिए, रैखिक प्रतिगमन (OLS) का अनुप्रयोग संभव नहीं है।

टोबेट प्रोबिट और ट्रंकेटेड रिग्रेशन का एक संयोजन है। सेंसरिंग और छंटनी को अलग करते समय देखभाल की जानी चाहिए:

  • सेंसरिंग: जब नमूने में सीमा के अवलोकन होते हैं। आश्रित चर मूल्यों ने एक सीमा को बाएं या दाएं से टकराया।
  • ट्रंकेशन: अवलोकन जिसमें आश्रित मूल्यों की कुछ सीमाएं अध्ययन में शामिल नहीं हैं। उदाहरण के लिए, केवल सकारात्मक मूल्य। Truncation में जानकारी का अधिक नुकसान है तो सेंसर का।

टोबेट = प्रोबिट + ट्रंकेशन रिग्रेशन

टोबिट मॉडल सामान्यता मानता है जैसा कि प्रोबेट मॉडल करता है।

कदम:

  1. प्रोब मॉडल यह तय करता है कि आश्रित चर 0 या 1 है।

    (विवेकपूर्ण निर्णय)पी(y>0)=Φ(एक्स'β)
    यदि आश्रित चर 1 है तो कितना (0 पर सेंसिंग मानकर)।
  2. (निरंतर निर्णय)(yy>0)=एक्स'β+σλ(एक्स'βσ)

गुणक β दोनों निर्णय मॉडल के लिए समान है। σλ(एक्स'βσ) सेंसर मूल्यों (शून्य) को समायोजित करने के लिए सुधार शब्द है।

कृपया क्रैग का मॉडल भी देखें जहां आप अलग-अलग उपयोग कर सकते हैं β प्रत्येक चरण में।


साइट पर आपका स्वागत है, @Amarnayak। मैंने आपके पोस्ट का उपयोग करने के लिए संपादन किया हैएलटीएक्स-टाइप स्वरूपण। कृपया सुनिश्चित करें कि यह अभी भी कहता है कि आप इसे क्या चाहते हैं।
गूँग - मोनिका
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.