परिचय
विषय में मेरी रुचि अब लगभग 7 साल है और इसके परिणामस्वरूप पीएचडी थीसिस टाइम सीरीज़: एकत्रीकरण, असहमति और लंबी स्मृति है , जहां एआर (1) योजना के लिए क्रॉस-अनुभागीय विघटन समस्या के एक विशिष्ट प्रश्न पर ध्यान दिया गया था।
डेटा
एकत्रीकरण के लिए विभिन्न तरीकों के साथ काम करना पहला प्रश्न जिसे आपको स्पष्ट करने की आवश्यकता है कि आप किस प्रकार के डेटा से निपटते हैं (मेरा अनुमान स्थानिक है, सबसे रोमांचकारी है)। व्यवहार में आप अस्थायी एकत्रीकरण पर विचार कर सकते हैं (देखें सिल्वेस्ट्रिनी, ए और वेरिडास, डी। (2008) ), क्रॉस-सेक्शनल (मुझे ग्रेंजर, सीडब्ल्यूजे (1990) का लेख बहुत पसंद है ) और समय और स्थान दोनों (स्थानिक एकत्रीकरण का अच्छी तरह से सर्वेक्षण किया गया है) में Giacomini, आर और ग्रेंजर, CWJ (2004) )।
उत्तर (लंबा)
अब, आपके प्रश्नों का उत्तर देते हुए, मैंने पहले कुछ मोटे अंतर्ज्ञान रखे। चूँकि मैं व्यवहार में जिन समस्याओं से मिलता हूँ, वे अक्सर अनुभवहीन डेटा (एंडी की धारणा) पर आधारित होती हैं
आप समय के किसी भी स्तर पर टिप्पणियों की एक समय श्रृंखला को माप सकते हैं
मैक्रो-अर्थमिति के लिए बहुत मजबूत लगता है, लेकिन वित्तीय और सूक्ष्म-अर्थमिति या किसी भी प्रायोगिक क्षेत्र के लिए अच्छा है, क्या आप परिशुद्धता को काफी अच्छी तरह से नियंत्रित करते हैं) मुझे यह ध्यान रखना होगा कि जब मैं काम करता हूं तो मेरी मासिक श्रृंखला कम सटीक होती है वार्षिक डेटा। अधिक लगातार समय श्रृंखला के अलावा कम से कम मैक्रोइकॉनॉमिक्स में मौसमी पैटर्न होते हैं , जिससे स्पुरियस हो सकता हैपरिणाम (मौसमी भाग श्रृंखला को नहीं सहसंबद्ध करते हैं), इसलिए आपको अपने डेटा को मौसमी रूप से समायोजित करने की आवश्यकता है - आवृत्ति आवृत्ति डेटा के लिए छोटे परिशुद्धता का एक अन्य स्रोत। क्रॉस-सेक्शनल डेटा के साथ काम करने से पता चला कि उच्च स्तर की असहमति शायद अधिक समस्याएं लाती है, जिससे निपटने के लिए बहुत सारे शून्य हैं। उदाहरण के लिए, डेटा के पैनल में एक विशेष घर 5-10 साल में एक बार एक कार खरीद सकता है, लेकिन नई (प्रयुक्त) कारों के लिए कुल मांग बहुत चिकनी है (यहां तक कि एक छोटे शहर या क्षेत्र के लिए)।
सबसे कमजोर बिंदु एकत्रीकरण हमेशा सूचना के नुकसान में परिणाम करता है, आपके पास पूरे दशक के दौरान यूरोपीय संघ के देशों के क्रॉस-सेक्शन (2001-2010 की अवधि के अनुसार) द्वारा उत्पादित जीडीपी हो सकती है, लेकिन आप विस्तृत पैनल डेटा सेट पर विचार करते हुए आपके विश्लेषण में मौजूद सभी गतिशील सुविधाओं को ढीला कर देंगे। बड़े पैमाने पर पार-अनुभागीय एकत्रीकरण और भी अधिक दिलचस्प हो सकता है: आप, मोटे तौर पर, साधारण चीजों को लें (लघु मेमोरी एआर (1)) उन्हें काफी बड़ी आबादी पर औसत करें और "प्रतिनिधि" लंबा मेमोरी एजेंट प्राप्त करें जो माइक्रो से कोई भी नहीं मिलता है। इकाइयाँ (प्रतिनिधि एजेंट की अवधारणा के लिए एक और पत्थर)। इसलिए एकत्रीकरण ~ जानकारी का नुकसान ~ वस्तुओं के विभिन्न गुण और आप इस नुकसान और / या नई संपत्तियों के स्तर पर नियंत्रण रखना चाहेंगे। मेरी राय में, संभव के रूप में उच्च आवृत्ति पर सटीक माइक्रो लेवल डेटा होना बेहतर है, लेकिन ...
तकनीकी रूप से किसी भी प्रतिगमन विश्लेषण का उत्पादन करने के लिए आपको अधिक या कम कमरे (स्वतंत्रता की डिग्री) की आवश्यकता होती है ताकि कम से कम आश्वस्त हो (कम से कम) सांख्यिकीय रूप से आपके परिणाम कबाड़ नहीं होते हैं, हालांकि वे अभी भी एक सैद्धांतिक और कबाड़ हो सकते हैं :) इसलिए मैं बराबर नहीं डालता हूं प्रश्न 1 और 2 को मापता है (आमतौर पर मैक्रो-विश्लेषण के लिए त्रैमासिक डेटा का चयन करता है)। तीसरे उप-प्रश्न का उत्तर देते हुए, आप सभी व्यावहारिक अनुप्रयोगों में निर्णय लेते हैं कि आपके लिए क्या अधिक महत्वपूर्ण है: अधिक सटीक डेटा या स्वतंत्रता की डिग्री। यदि आप उल्लेखित धारणा को ध्यान में रखते हैं तो अधिक विस्तृत (या उच्च आवृत्ति) डेटा बेहतर है।
संभवतः उत्तर को किसी प्रकार की चर्चा के बाद बाद में संपादित किया जाएगा।