एआर (1) के साथ यादृच्छिक चलना अनुमान


10

जब मैं एआर (1) के साथ एक यादृच्छिक चलने का अनुमान लगाता हूं, तो गुणांक 1 के बहुत करीब है लेकिन हमेशा कम होता है।

क्या गणित कारण है कि गुणांक एक से अधिक नहीं है?


मैंने माटलैब टूलबॉक्स के साथ और अरिमा पर अपनी स्क्रिप्ट के साथ भी प्रयास किया (जहाँ गुणांक [-10,10] पर बँधा हुआ है और परिणाम समान है)। मैं एक साधारण ओएलएस के साथ प्रयास करता हूं और परिणाम समान है।
मार्को

अनुमान नीचे से पक्षपाती है, हमें डिकी और फुलर के पेपर को पढ़ना है।
मार्को

जवाबों:


12

हम अनुमान लगाते हैं कि OLS द्वारा मॉडल

xt=ρxt1+ut,E(ut{xt1,xt2,...})=0,x0=0

आकार टी के नमूने के लिए, अनुमानक है

ρ^=t=1Txtxt1t=1Txt12=ρ+t=1Tutxt1t=1Txt12

यदि सही डेटा जनरेट करने वाला तंत्र शुद्ध यादृच्छिक चलना है, तो , औरρ=1

xt=xt1+utxt=i=1tui

OLS आकलनकर्ता के नमूने वितरण, या समतुल्य के नमूने वितरण , सममित चारों ओर शून्य नहीं है, बल्कि यह शून्य की बाईं करने के लिए विषम है, साथ प्राप्त मूल्यों के% (यानी संभावना द्रव्यमान) ऋणात्मक हो रहा है, और इसलिए हम अधिक से अधिक बार प्राप्त नहीं । यहाँ एक सापेक्ष आवृत्ति वितरण है68 ρ <1ρ^168ρ^<1

यहां छवि विवरण दर्ज करें

Mean:0.0017773Median:0.00085984Minimum: 0.042875Maximum: 0.0052173Standard deviation: 0.0031625Skewness: 2.2568Ex. kurtosis: 8.3017

इसे कभी-कभी "डिक्की-फुलर" वितरण कहा जाता है, क्योंकि यह उसी नाम के यूनिट-रूट परीक्षणों को करने के लिए उपयोग किए जाने वाले महत्वपूर्ण मूल्यों का आधार है।

मैं नमूना वितरण के आकार के लिए अंतर्ज्ञान प्रदान करने का प्रयास देखकर याद नहीं करता । हम यादृच्छिक चर के नमूने वितरण को देख रहे हैं

ρ^1=(t=1Tutxt1)(1t=1Txt12)

यदि का मानक सामान्य है, तो का पहला घटक गैर-स्वतंत्र उत्पाद-सामान्य वितरण (या "सामान्य-उत्पाद") का योग है । का दूसरा घटक गैर-स्वतंत्र गामा वितरण (वास्तव में एक डिग्री की आजादी के ची-वर्ग) के योग का पारस्परिक है। utρ^1ρ^1

न तो हमारे पास विश्लेषणात्मक परिणाम हैं, इसलिए आइए अनुकरण करें ( एक नमूना आकार के लिए )। T=5

यदि हम स्वतंत्र उत्पाद मानदंड प्राप्त करते हैं तो हमें एक ऐसा वितरण मिलता है जो शून्य के आसपास सममित रहता है। उदाहरण के लिए:

यहां छवि विवरण दर्ज करें

लेकिन अगर हम नॉन-इंडिपेंडेंट प्रॉडक्ट नॉर्मल्स को जोड़ते हैं जैसा कि हमारा मामला है

यहां छवि विवरण दर्ज करें

जिसे दाईं ओर तिरछा किया गया है, लेकिन नकारात्मक मानों के लिए अधिक संभावना जन को आवंटित किया गया है। और अगर हम नमूना का आकार बढ़ाते हैं और राशि में अधिक सहसंबद्ध तत्व जोड़ते हैं, तो द्रव्यमान को बायीं ओर और भी धकेल दिया जाता है।

गैर-स्वतंत्र गामा के योग का पारस्परिक सकारात्मक तिरछा के साथ एक गैर-नकारात्मक यादृच्छिक चर है।

तब हम कल्पना कर सकते हैं कि, यदि हम इन दो यादृच्छिक चर के उत्पाद को लेते हैं, तो पहले के नकारात्मक अनाथ में तुलनात्मक रूप से अधिक संभावना द्रव्यमान होता है, जो दूसरे में होने वाले सकारात्मक-केवल मूल्यों (और सकारात्मक तिरछापन) को जोड़ देता है बड़े नकारात्मक मूल्यों का एक डैश), नकारात्मक तिरछा बनाएँ जो के वितरण को चिह्नित करता है । ρ^1


वाह, अच्छा विश्लेषण! क्या आप यह संकेत दे सकते हैं कि कौन सी मानक ओएलएस मान्यताओं का उल्लंघन किया गया है?
रिचर्ड हार्डी

@ रीचर्डहार्डी धन्यवाद। आपकी टिप्पणी का जवाब देने के लिए बाद में लौटूंगा।
एलेकोस पापाडोपोलोस

मैं अभी भी OLS मान्यताओं के बारे में उत्सुक हूँ ... अग्रिम धन्यवाद!
रिचर्ड हार्डी

मैं यहां थोड़ा भ्रमित हूं। रैंडम वॉक के मामले में जहां हम समीकरण का अनुमान लगाने की कोशिश करते हैं , क्योंकि realtionsip रेट पर करना चाहिए। क्या आपका अनुकरण भी असंगतता का संकेत दे रहा है? एक्स टी + 1 - एक्स टीXt+1=αXt+ϵXt+1Xt
कैगदास ओजेंक

@CagdasOzgenc ऐसी कोई बात नहीं। Cosistency एक अस्वाभाविक संपत्ति है, यहाँ मैं कुछ आश्वस्त करता हूं कि क्यों परिमित नमूनों में हमें _ _ " को छोड़कर अधिक बार प्राप्त करना चाहिए " (अनुमानकर्ता के वितरण के कारण अधिक संभावना है) नकारात्मक संख्या में द्रव्यमान)। ρ -1ρ^<1ρ^1
एलेकोस पापाडोपोलोस

6

यह वास्तव में एक जवाब नहीं है, लेकिन एक टिप्पणी के लिए बहुत लंबा है, इसलिए मैं इसे वैसे भी पोस्ट करता हूं।

मैं 100 के नमूने के आकार के लिए सौ में से 1 से दो बार से अधिक गुणांक प्राप्त करने में सक्षम था ("आर" का उपयोग करके):

N=100                   # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~y[-T])    # regress y on its own first lag, with intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

अहसास 84 और 95 में 1 से ऊपर गुणांक है, इसलिए यह हमेशा एक से नीचे नहीं होता है । हालांकि, प्रवृत्ति स्पष्ट रूप से नीचे-पक्षपाती अनुमान है। सवाल रहता है, क्यों ?

संपादित करें: उपरोक्त रजिस्टरों में एक अवरोधन शब्द शामिल था जो मॉडल में नहीं लगता है। एक बार अवरोधन हटा दिए जाने के बाद, मुझे 1 (3100 में से 10000) से ऊपर कई और अनुमान मिलते हैं - लेकिन फिर भी यह स्पष्ट रूप से सभी मामलों के 50% से नीचे है:

N=10000                 # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~-1+y[-T]) # regress y on its own first lag, without intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

ठीक है, हमेशा "नाबालिग" नहीं बल्कि अधिकांश मामले में। यह स्पष्ट रूप से एक परिणाम है। क्यों कारण?
मार्को

2
xtxt1
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.