हैमिल्टन से एआरएमए (पी, क्यू) का राज्य अंतरिक्ष प्रतिनिधित्व


11

मैं हैमिल्टन अध्याय 13 पढ़ रहा हूं और उसके पास ARMA (p, q) के लिए निम्नलिखित राज्य स्थान प्रतिनिधित्व है। मान लें कि । जब एआरएमए (पी, क्यू) प्रक्रिया इस प्रकार है: \ start {align} y_t - \ mu & = \ phi_1 (y_ {t-1} - # mu) + \ phi_2 (y_ {t-2} - \ mu) + ... + \ phi_3 (y_ {t-3} - \ mu) \\ & + \ epsilon_t + \ _ theta_1 \ _psilon_ {t-1} +। .. + \ _ theta_ {r-1} \ epsilon_ {t-r + 1}। \ अंत {संरेखित} फिर, वह राज्य समीकरण को परिभाषित करता है:r=max(p,q+1)

ytμ=ϕ1(yt1μ)+ϕ2(yt2μ)+...+ϕ3(yt3μ)+ϵt+θ1ϵt1+...+θr1ϵtr+1.

ξt+1=[ϕ1ϕ2ϕr1ϕr1000000010]ξt+[ϵt+100]

और अवलोकन समीकरण इस प्रकार है:

yt=μ+[1θ1θ2θr1]ξt.

मुझे समझ नहीं आ रहा है कि इस मामले में \ xi_t क्या ξtहै। क्योंकि उनके AR (p) प्रतिनिधित्व में यह [ytμyt1μytp+1μ] और उसके MA ​​(1) प्रतिनिधित्व में, यह [ϵtϵt1]

क्या कोई मुझे यह बेहतर समझा सकता है?

जवाबों:


10

हैमिल्टन से पता चलता है कि यह पुस्तक में एक सही प्रतिनिधित्व है, लेकिन दृष्टिकोण थोड़ा उल्टा लग सकता है। इसलिए मुझे पहले एक उच्च-स्तरीय उत्तर देना चाहिए जो उसकी मॉडलिंग पसंद को प्रेरित करता है और फिर उसकी व्युत्पत्ति पर थोड़ा विस्तार करता है।

प्रेरणा :

जैसा कि अध्याय 13 को पढ़ने से स्पष्ट हो जाना चाहिए, राज्य के अंतरिक्ष रूप में एक गतिशील मॉडल लिखने के कई तरीके हैं। इसलिए हमें पूछना चाहिए कि हैमिल्टन ने इस विशेष प्रतिनिधित्व को क्यों चुना। कारण यह है कि यह प्रतिनिधित्व राज्य वेक्टर की गतिशीलता को कम रखता है। सहज रूप से, आप सोचेंगे (या कम से कम मैं) कि ARMA ( , ) के लिए राज्य वेक्टर कम से कम आयाम । आखिरकार, केवल कहने से , हम के मान का अनुमान नहीं लगा सकते । फिर भी वह दिखाता है कि हम राज्य-अंतरिक्ष प्रतिनिधित्व को एक चतुर तरीके से परिभाषित कर सकते हैं जो कि के आयाम के राज्य वेक्टर को छोड़ देता हैक्यू पी + क्ष y टी - 1 ε टी - 1 आर = अधिकतम { पी , क्यू + 1 } पी क्षpqp+qyt1ϵt1r=max{p,q+1}। कम्प्यूटेशनल कार्यान्वयन के लिए राज्य की गतिशीलता को कम रखना महत्वपूर्ण हो सकता है, मुझे लगता है। यह पता चला है कि उनका राज्य-अंतरिक्ष प्रतिनिधित्व भी एक ARMA प्रक्रिया की एक अच्छी व्याख्या प्रदान करता है: बिना पढ़े राज्य एक AR ( ) है, जबकि माप त्रुटि के कारण MA ( ) भाग उत्पन्न होता है।pq

व्युत्पत्ति :

अब व्युत्पत्ति के लिए। पहले ध्यान दें कि, लैग ऑपरेटर संकेतन का उपयोग करते हुए, ARMA (p, q) को इस प्रकार परिभाषित किया गया है: जहाँ हम जाने के लिए , और के लिए और हम न आना के बाद से कम से कम है । इसलिए हम सभी को यह दिखाने की जरूरत है कि उनका राज्य और अवलोकन समीकरण उपरोक्त समीकरण का मतलब है। राज्य वेक्टर को पर देखें। राज्य का समीकरण। आप जाँच सकते हैं कि समीकरण सेφ j = 0 जे > पी θ j = 0 ξ टी - 1 ξ टी

(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt
ϕj=0j>pθj=0θ आर आर क्ष + 1 ξ टी = { ξ 1 , टी , ξ 2 , टी , ... , ξ आर , टी } 2 आर ξ मैं , टी ξ मैं - 1 , टी + 1 ξ आर , टी टी + 1 ξ मैं , टी + 1 ξ 1 ,j>qθrrq+1
ξt={ξ1,t,ξ2,t,,ξr,t}
2rबस प्रविष्टियां से एक अवधि आगे और पर राज्य वेक्टर में को त्यागें । पहला समीकरण, को परिभाषित करता है इसलिए प्रासंगिक है। इसे : चूंकि के दूसरे तत्व का पहला तत्व और तीसरे तत्व का है। का पहला तत्वξi,tξi1,t+1ξr,tt+1ξi,t+1ξ टी ξ टी - 2 (1- φ 1 एल-...- φ आर एल आर ) ξ 1 , टी + 1 = ε टी +
ξ1,t+1=ϕ1ξ1,t+ϕ2ξ2,t++ϕrξr,t+ϵt+1
ξtξt1ξtξt2और इसी तरह, हम इसे फिर से लिख सकते हैं, लैग ऑपरेटर संकेतन का उपयोग कर और बाएँ हाथ की ओर लैग बहुपद को स्थानांतरित कर (समीकरण 13.1.24 in H.): इसलिए छिपी हुई स्थिति एक ऑटोरेस्प्रेसिव प्रक्रिया का अनुसरण करती है। इसी प्रकार, अवलोकन समीकरण या यह अब तक एक ARMA की तरह नहीं दिखता है, लेकिन अब आता है अच्छा हिस्सा: अंतिम समीकरण को गुणा करें :
(1ϕ1LϕrLr)ξ1,t+1=ϵt+1
yt=μ+ξ1,t+θ1ξ2,t++θr1ξr1,t
ytμ=(1+θ1L++θr1Lr1)ξ1,t
(1ϕ1LϕrLr)
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)(1ϕ1LϕrLr)yt
लेकिन राज्य समीकरण (एक अवधि के अंतराल) से, हमारे पास ! तो ऊपर जो वास्तव में हमें दिखाने की जरूरत है! तो राज्य-अवलोकन प्रणाली एआरएमए (पी, क्यू) का सही प्रतिनिधित्व करती है। मैं वास्तव में हैमिल्टन के लिए ही सही था, लेकिन मुझे आशा है कि यह वैसे भी उपयोगी है।(1ϕ1LϕrLr)ξ1,t=ϵt
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt

मैं राज्य की व्याख्या पर पूरी तरह से बेचा नहीं गया हूँ, यद्यपि। जब आप राज्य संक्रमण समीकरण की पहली पंक्ति लिखते हैं, तो यह एक समीकरण की तरह लगता है जो ग्रहण किए गए मॉडल के साथ संघर्ष करता है। इसके अलावा, मुझे यह अजीब लगता है कि आप मानते हैं कि डेटा एक ही समय में छिपा / अव्यक्त है।
टेलर

आप सही हैं, राज्य वास्तव में जैसा नहीं है । इस पर ध्यान दिलाने के लिए धन्यवाद। मैंने इसे ठीक किया, अब ठीक होना चाहिए। Btw, सामान्य तौर पर हम राज्य वेक्टर में चर देख सकते थे, उदाहरण के लिए एआर (पी) उदाहरण देखें। वहां छिपे हुए चर को अगली अवधि के मूल्य के रूप में माना जा सकता है, । ytyt+1
मथायस श्मिटबलेचर

धन्यवाद! लेकिन मैं अभी भी उलझन में हूँ कि इस राज्य के अंतरिक्ष प्रतिनिधित्व में क्या है। उदाहरण के लिए समीकरण 13.1.15 और 13.1.14 के लिए और एआर (पी) और एमए (1) प्रक्रिया में उसकी की परिभाषा नहीं है । मैं भ्रम की स्थिति में हूं, अगर मैं इसे matlab में डालूं, तो मुझे में कौन से नंबर मिल रहे हैं ? ξξξ
14:11 बजे dleal

यहाँ भ्रामक यह है कि राज्य अंतरिक्ष मॉडलिंग एक छिपे हुए राज्य से संबंधित है, जबकि ARMA प्रक्रियाओं के साथ हम चर को छिपे हुए के रूप में नहीं सोचते हैं। राज्य अंतरिक्ष प्रतिनिधित्व और (कलमन) फ़िल्टरिंग तकनीक बिना पढ़े हुए राज्य को फ़िल्टर करने से प्रेरित होती हैं। ARMA प्रक्रियाओं के लिए, हम बस राज्य-स्थान मॉडल के निर्माण का उपयोग करते हैं ताकि हम कलमन फ़िल्टर का उपयोग करके मापदंडों का अनुमान लगा सकें। इसलिए हम कुछ हद तक मनमाने ढंग से 13.1.4 में छिपे हुए राज्य को अगली अवधि के अवलोकन में परिभाषित करते हैं जबकि 13.1.22 में, राज्य एक नया चर है जो मूल मॉडल में प्रकट नहीं होता है। yt+1
मथायस श्मिटब्लैचर 16

मतलाब के बारे में आपके प्रश्न का उत्तर देने के लिए: यदि आप एक ARMA (p, q) से शुरू करते हैं, तो वह चर नहीं है जो उस मॉडल में दिखाई देता है। हालाँकि, राज्य अंतरिक्ष प्रतिनिधित्व वास्तव में ARMA (p, q) की एक अलग व्याख्या प्रदान करता है: छिपी हुई अवस्था वह चर हो सकती है जिसमें आप रुचि रखते हैं और माप त्रुटि के कारण MA (q) संरचना उत्पन्न होती है। आप एक AR (1) लिख सकते हैं और यह देखने के लिए कुछ सफेद शोर जोड़ सकते हैं कि ARMA संरचना उत्पन्न होती है। ξ
मथायस श्मिटब्लैचर

8

यह ऊपर के समान है, लेकिन मुझे लगा कि मैं एक संक्षिप्त, अधिक संक्षिप्त जवाब प्रदान करूंगा। फिर, यह एक कारण ARMA ( , ) प्रक्रिया के लिए हैमिल्टन का प्रतिनिधित्व है, जहां । यह संख्या स्टेट वेक्टर का आयाम होगी , और इसे पंक्तियों की संख्या बनाने के लिए आवश्यक है अवलोकन मैट्रिक्स के स्तंभों की संख्या के साथ राज्य मिलान। इसका मतलब है कि जब भी सूचकांक बहुत बड़ा होता है, तो हमें गुणांक को शून्य पर सेट करना पड़ता है।pqr=max(p,q+1)r(ξt,ξt1,,ξtr+1)

  1. अवलोकन समीकरण

ϕ(B)(ytμ)=θ(B)ϵt(causality)(ytμ)=ϕ1(B)θ(B)ϵtyt=μ+ϕ1(B)θ(B)ϵtyt=μ+θ(B)ϕ1(B)ϵt(letting ξt=ϕ1(B)ϵt)yt=μ+θ(B)ξt(this is where we need r)yt=μ+[1θ1θ2θr1][ξtξt1ξtr+1]the state vector+0.
  1. राज्य का समीकरण

ξt=ϕ1(B)ϵtϕ(B)ξt=ϵt(1ϕ1BϕrBr)ξt=ϵtξt=ϕ1ξt1++ϕrξtr+ϵt[ξtξt1ξt2ξtr+1]=[ϕ1ϕ2ϕ3ϕr1000010000010][ξt1ξt2ξtr]+[ϵt00].

1
इससे यह स्पष्ट होता है कि वे राज्य समीकरण कहां से आए हैं। मुझे लगता है कि यह उस तरह से बताते हुए किया गया है जो नोट के साथ उन बेतरतीब दिखने वाले समीकरणों को बताने से बेहतर है कि यह सही निकला।
एलेक्स

@CowboyTrader हाँ, यह सही है। कम से कम इस ARMA प्रतिनिधित्व के लिए। कुछ और हैं।
टेलर

@CowboyTrader नहीं, लेकिन मैं कहूंगा कि यह एक समझदार भावना है क्योंकि राज्य अंतरिक्ष मॉडल पर साहित्य को छानने के लिए पक्षपाती है। रैखिक गॉसियन राज्य अंतरिक्ष मॉडल के लिए पुनरावर्ती भविष्यवाणी समीकरण मौजूद हैं, लेकिन आपको फ़िल्टर किए गए सामान को एक अतिरिक्त बोनस के रूप में मिलता है।
टेलर

@CowboyTrader मुझे एक ईमेल भेजने के लिए स्वतंत्र महसूस कर रहा है। मुझे पता है कि सभी को टिप्पणियों में विस्तारित चर्चा पसंद नहीं है, इसलिए ऐसा करना आसान हो सकता है।
टेलर

मुझे लगता है कि यह साबित हो गया है, लेकिन, क्या आप कृपया कुछ अंतर्ज्ञान देने में मदद कर सकते हैं? राज्य चर क्या हैं, टी = 0 राज्य वेक्टर क्या है?
फ्रैंक
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.