GARCH और ARMA में क्या अंतर है?


42

मैं उलझन में हूं। मैं एक ARMA और एक GARCH प्रक्रिया के अंतर को नहीं समझता .. मेरे लिए वही हैं जो नहीं हैं?

यहाँ (G) ARCH (p, q) प्रक्रिया है

σt2=α0+i=1qαirti2ARCH+i=1pβiσti2GARCH

और यहाँ ARMA ( ) है:p,q

Xt=c+εt+i=1pφiXti+i=1qθiεti.

क्या ARMA केवल GARCH का विस्तार है, GARCH का उपयोग केवल रिटर्न के लिए किया जा रहा है और धारणा जहां एक मजबूत सफेद प्रक्रिया का अनुसरण करता है?εr=σεε


1
Fg nu के उत्तर के अलावा, GARCH में विचरण प्रक्रिया समय-बदलती है। हालांकि, यहां एक चाल है कि SP500 के लॉग-रिटर्न की एक समय-श्रृंखला दी जाती है, फिर अस्थिरता प्रक्रिया प्राप्त करने के लिए हमें क्या करना चाहिए? कुछ लोग कहते हैं कि हमें अवशिष्ट श्रृंखला को वापस लेने के लिए ARMA मॉडल का उपयोग करने की आवश्यकता है, फिर सशर्त विचरण प्रक्रिया प्राप्त करने के लिए इस अवशिष्ट श्रृंखला को GARCH मॉडल में प्लग करें? या सीधे सशर्त विचरण प्राप्त करने के लिए लॉग-रिटर्न प्रक्रिया SP500 के लॉग-रिटर्न प्रक्रिया को GARCH मॉडल में प्लग करें?

जवाबों:


48

आप किसी प्रक्रिया की विशेषताओं को उसके प्रतिनिधित्व के साथ स्वीकार कर रहे हैं। (वापसी) प्रक्रिया ।(Yt)t=0

  • ARMA (p, q) मॉडल प्रक्रिया के सशर्त माध्य को निर्दिष्ट करता है

मैंटीटीσ(वाईटी)

E(YtIt)=α0+j=1pαjYtj+k=1qβkϵtk
यहां, समय पर सेट की गई जानकारी , जो परिणाम प्रक्रिया के मूल्यों द्वारा उत्पन्न ।Ittσ(Yt)
  • GARCH (r, s) मॉडल प्रक्रिया के सशर्त विचरण को निर्दिष्ट करता है
    V(YtIt)=V(ϵtIt)σt2=δ0+l=1rδjσtl2+m=1sγkϵtm2

विशेष रूप से पहले तुल्यता ।V(YtIt)=V(ϵtIt)

एक तरफ : इस प्रतिनिधित्व के आधार पर, आप लिख सकते हैं जहाँ एक मजबूत सफेद शोर प्रक्रिया है, लेकिन यह इस तरह से प्रक्रिया के परिभाषित होने के बाद से है।जेड टी

ϵtσtZt
Zt
  • दो मॉडल (सशर्त माध्य और विचरण के लिए) एक दूसरे के साथ पूरी तरह से संगत हैं, इस प्रक्रिया में माध्य को ARMA और GARCH के रूप में भिन्न रूप में पेश किया जा सकता है। इस प्रक्रिया के लिए ARMA (p, q) -GARCH (r, s) मॉडल का पूरा विनिर्देशन निम्न प्रतिनिधित्व के रूप में प्रक्रिया के लिए
    Yt=α0+j=1pαjYtj+k=1qβkϵtk+ϵtE(ϵtIt)=0,tV(ϵtIt)=δ0+l=1rδlσtl2+m=1sγmϵtm2t

क्या आपको समय पर सूचना पर कंडीशनिंग नहीं करना चाहिए यदि सभी रजिस्टरों में पिछड़ जाते हैं? t1
जस

@ जेज़ की परिभाषा पर ध्यान दें, "यहाँ, समय पर सेट की गई जानकारी , जो कि परिणाम प्रक्रिया के हुए मूल्यों द्वारा उत्पन्न ।" वह है, । कुछ लेखक इसे रूप में लिखते हैं, लेकिन यह समय पर सेट की गई सूचना की धारणा के विपरीत है । टीσ( वाई टी ) मैं टी =σ( वाई टी - 1 , वाई टी - 2 ...,) मैं टी - 1 टीIttσ(Yt)It=σ(Yt1,Yt2,)It1t
tchakravarty

अच्छा! क्या आप जानते हैं कि हम सिग्मा-बीजगणित का उपयोग क्यों करते हैं और निस्पंदन का नहीं?
जस

1
@ जसे, सूचना सेट का क्रम एक निस्पंदन का गठन करता है(It)t=0
tchakravarty

16

संपादित करें: मुझे एहसास हुआ कि उत्तर की कमी थी और इस तरह एक अधिक सटीक उत्तर प्रदान किया है (नीचे देखें - या शायद ऊपर)। मैंने इसे तथ्यात्मक गलतियों के लिए संपादित किया है और इसे रिकॉर्ड के लिए छोड़ रहा हूं।


विभिन्न फोकस पैरामीटर:

  • एआरएमए एक स्टोकेस्टिक प्रक्रिया की प्राप्ति के लिए एक मॉडल है जो प्रक्रिया के सशर्त माध्य की एक विशिष्ट संरचना को लागू करता है।
  • GARCH प्रक्रिया के सशर्त विचरण की एक विशिष्ट संरचना को लागू करने वाली एक स्टोकेस्टिक प्रक्रिया की प्राप्ति के लिए एक मॉडल है।

स्टोकेस्टिक बनाम नियतात्मक मॉडल:

  • ARMA इस अर्थ में एक स्टोकेस्टिक मॉडल है जो आश्रित चर - स्टोकेस्टिक प्रक्रिया के अहसास - को लैग्ड डिपेंडेंट वेरिएबल और लैग्ड मॉडल एरर (सशर्त माध्य) और स्टोकेस्टिक एरर टर्म के निर्धारण कार्य के योग के रूप में निर्दिष्ट किया जाता है ।
  • GARCH इस अर्थ में एक नियतात्मक मॉडल है कि आश्रित चर - प्रक्रिया का सशर्त रूपांतर - दांतेदार चर का एक विशुद्ध रूप से नियतात्मक कार्य है।

1
GARCH प्रक्रिया का सशर्त रूपांतर आपके निर्धारित अर्थों में एक नियतात्मक है, लेकिन GARCH प्रक्रिया नहीं है, क्योंकि , और से स्वतंत्र है । rt=σtεtεtt
14

1
@ चंपत, सच। अगर GARCH मॉडल में दो समीकरण होते हैं, एक सशर्त माध्य (जिसका उदाहरण आपने ऊपर लिखा है) के लिए और दूसरा सशर्त विचरण के लिए (जो कि सहज रूप से, यद्यपि गणितीय रूप से नहीं, मॉडल का "मुख्य समीकरण"), मेरा डेटा केवल लागू होता है बाद के समीकरण के लिए।
रिचर्ड हार्डी

10

ARMA

एक ARMA ( ) प्रक्रिया का अनुसरण करने वाले पर विचार करें । मान लीजिए कि सादगी के लिए इसका शून्य मतलब और निरंतर भिन्नता है। सूचना के पर , को एक ज्ञात (पूर्व निर्धारित) भाग में विभाजित किया जा सकता है (जो कि दिया गया का ) और एक यादृच्छिक भाग :ytp,qIt1ytμtytIt1ut

yt=μt+ut;μt=φ1yt1++φpytp+θ1ut1++θqutq  (known, predetermined);ut|It1 D(0,σ2)  (random)

जहां कुछ घनत्व है।D

सशर्त मतलब अपने आप में एक प्रक्रिया ARMA (के समान इस प्रकार ), लेकिन बिना यादृच्छिक समकालीन त्रुटि अवधि: जहां ; लिए ; और लिए । ध्यान दें कि इस प्रक्रिया में बजाय आदेश ( ) है ( ) ।μtp,q

μt=φ1μt1++φpμtp+(φ1+θ1)ut1++(φm+θm)utm,
m:=max(p,q)φi=0i>pθj=0j>qp,mp,qyt

हम के सशर्त वितरण को इसके पिछले सशर्त साधनों (पिछले एहसास मूल्यों के बजाय) और मॉडल मापदंडों के रूप में लिख सकते हैंyt

ytD(μt,σt2);μt=φ1μt1++φpμtp+(φ1+θ1)ut1++(φm+θm)utm;σt2=σ2,

बाद का प्रतिनिधित्व ARMA की तुलना GARCH और ARMA-GARCH की तुलना को आसान बनाता है।

GARCH

पर विचार करें जो एक GARCH ( ) प्रक्रिया का अनुसरण करता है । मान लीजिए सादगी के लिए इसका निरंतर मतलब है। फिरyts,r

ytD(μt,σt2);μt=μ;σt2=ω+α1ut12++αsuts2+β1σt12++βrσtr2;utσti.i.D(0,1),

जहाँ और कुछ घनत्व है।ut:=ytμtD

सशर्त विचरण एक प्रक्रिया ARMA (के समान इस प्रकार ), लेकिन बिना यादृच्छिक समकालीन त्रुटि अवधि।σt2s,r

ARMA-GARCH

उस पर विचार करें बिना शर्त का मतलब शून्य है और ARMA ( ) -GARCH ( ) प्रक्रिया का अनुसरण करता है। फिरytp,qs,r

ytD(μt,σt2);μt=φ1μt1++φpμtp+(φ1+θ1)ut1++(φm+θm)utm;σt2=ω+α1ut12++αsuts2+β1σt12++βrσtr2;utσti.i.D(0,1),

जहाँ ; कुछ घनत्व है, जैसे सामान्य; लिए ; और लिए । डी φ मैं = 0 मैं > पी θ j = 0 जे > क्षut:=ytμtDφi=0i>pθj=0j>q


सशर्त मतलब ARMA के कारण प्रक्रिया के रूप में मूलतः एक ही आकार सशर्त विचरण GARCH के कारण प्रक्रिया, बस अंतराल आदेश भिन्न हो सकती है (के एक अशून्य बिना शर्त मतलब के लिए अनुमति इस परिणाम में काफी परिवर्तन नहीं होना चाहिए)। महत्वपूर्ण रूप से, पर वातानुकूलित होने के बाद न तो यादृच्छिक त्रुटि शब्द हैं , इस प्रकार दोनों पूर्व निर्धारित हैं।I t - ytIt1


3

ARMA और GARCH प्रक्रियाएं उनकी प्रस्तुति में बहुत समान हैं। जब हम ARMA प्रक्रिया को त्रुटि संस्करण के लिए मान लेते हैं, तो दोनों के बीच विभाजन रेखा बहुत पतली होती है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.