कलमन फ़िल्टर की संभावना चिकनी परिणामों के बजाय फ़िल्टर परिणामों का उपयोग करके गणना क्यों की जाती है?


11

मैं बहुत मानक तरीके से कलमन फ़िल्टर का उपयोग कर रहा हूं। सिस्टम को राज्य समीकरण xt+1=Fxt+vt+1 और अवलोकन समीकरण द्वारा दर्शाया जाता हैyt=Hxt+Azt+wt

पाठ्यपुस्तकें सिखाते हैं कि Kalman फिल्टर लागू करने और "एक कदम आगे प्राप्त करने के बाद एक्स टी | t - 1x^t|t1 (या "फ़िल्टर किए गए अनुमान"), हमें उनकी संभावना फ़ंक्शन की गणना करने के लिए उनका उपयोग करना चाहिए:

yटी|मैंटी-1,zटी(yटी|मैंटी-1,zटी)=det[2π(एचपीटी|टी-1एच'+आर)]-12exp{-12(yटी-एचएक्स^टी|टी-1-zटी)'(एचपीटी|टी-1एच'+आर)-1(yटी-एचएक्स^टी|टी-1-zटी)}

मेरा प्रश्न है: "फ़िल्टर किए गए अनुमान" का उपयोग करके संभावना फ़ंक्शन की गणना क्यों की जाती है और "सुचारू अनुमान" ? क्या राज्य के सदिश का बेहतर अनुमान है? एक्स टी| टी एक्स टी| टीएक्स^टी|टी-1एक्स^टी|टीएक्स^टी|टी


मैंने शीर्षक को अधिक जानकारीपूर्ण होने के लिए संपादित किया।
जुहो कोक्कला

जवाबों:


5

अपने प्रश्न का उत्तर देने के लिए: आप चौरसाई घनत्व का उपयोग कर सकते हैं। लेकिन आपके पास नहीं है। Jarle Tufto के जवाब में अपघटन है जिसका आप उपयोग कर रहे हैं। लेकिन और भी हैं।

कलमन रिक्रिएशन का उपयोग करना

यहाँ आप रूप में संभावना का मूल्यांकन कर रहे हैं

(y1,...,yn)=(y1)Πमैं=2n(yमैं|y1,...,yमैं-1)

हालांकि, साधन और संस्करण हमेशा सामान्य रूप से संभावना वितरण को पूरी तरह से परिभाषित नहीं करते हैं। निम्न अपघटन है जिसका उपयोग आप वितरण करने के लिए कर रहे हैं, सशर्त संभावनाएं :f ( y i | y 1 , , y i - 1 )(एक्समैं-1|y1,...,yमैं-1)(yमैं|y1,...,yमैं-1)

(1)(yमैं|y1,...,yमैं-1)=(yमैं|एक्समैं)(एक्समैं|एक्समैं-1)(एक्समैं-1|y1,...,yमैं-1)एक्समैंएक्समैं-1

यहाँ राज्य संक्रमण घनत्व है ... मॉडल का हिस्सा है, और अवलोकन घनत्व है ... मॉडल का हिस्सा फिर से। अपने प्रश्न में आप इन्हें और हैं। एक ही बात है।f ( y i x i ) x t + 1 = F x t + v t + 1 y t = H x t + A z t + w t(एक्समैं|एक्समैं-1)(yमैं|एक्समैं)xt+1=Fxt+vt+1yt=Hxt+Azt+wt

जब आप एक कदम आगे राज्य भविष्यवाणी वितरण प्राप्त करते हैं, तो वह कंप्यूटिंग है । जब आप फिर से एकीकृत करते हैं, तो आप पूरी तरह से (1) प्राप्त करते हैं। आप अपने प्रश्न में उस घनत्व को पूरी तरह से लिखते हैं, और यह एक ही बात है।f(एक्समैं|एक्समैं-1)(एक्समैं-1|y1,...,yमैं-1)एक्समैं-1

यहां आप केवल संभावना वितरण के विघटन और मॉडल के बारे में मान्यताओं का उपयोग कर रहे हैं। यह संभावना गणना एक सटीक गणना है। कुछ भी विवेकाधीन नहीं है जिसका उपयोग आप इसे बेहतर या बुरा करने के लिए कर सकते हैं।

EM Algorithm का उपयोग करना

मेरी जानकारी के लिए, इस तरह के राज्य अंतरिक्ष मॉडल में सीधे संभावना का मूल्यांकन करने का कोई अन्य तरीका नहीं है। हालांकि, आप अभी भी एक अलग फ़ंक्शन का मूल्यांकन करके अधिकतम संभावना अनुमान लगा सकते हैं: आप ईएम एल्गोरिथ्म का उपयोग कर सकते हैं। उम्मीद के कदम (ई-स्टेप) में आप यहाँf ( y 1 , , y n , x 1 , , x n )

(एक्स1,...,एक्सn|y1,...yn)लॉग(y1,...,yn,एक्स1,...,एक्सn)एक्स1:n=रोंटी[लॉग(y1,...,yn,एक्स1,...,एक्सn)]
(y1,...,yn,एक्स1,...,एक्सn)"पूर्ण डेटा" संभावना है, और आप संयुक्त चौरसाई घनत्व के संबंध में उस के लॉग की अपेक्षा ले रहे हैं। अक्सर ऐसा होता है, क्योंकि आप इस पूरी डेटा संभावना के लॉग ले रहे हैं, शब्द रकम में विभाजित हो गए हैं, और अपेक्षा ऑपरेटर की रैखिकता के कारण, आप सीमांत चौरसाई वितरण (लोगों के संबंध में अपेक्षाएं) ले रहे हैं आप अपने प्रश्न में उल्लेख करते हैं)।

अन्य बातें

मैंने उन जगहों पर पढ़ा है कि ईएम संभावना को अधिकतम करने के लिए एक "अधिक स्थिर" तरीका है, लेकिन मैंने वास्तव में इस बिंदु को अच्छी तरह से तर्क देते हुए नहीं देखा है, और न ही मैंने इस शब्द को "स्थिर" बिल्कुल भी परिभाषित देखा है, लेकिन मैंने भी इसे देखा है 'टी वास्तव में यह आगे की जांच की। इनमें से किसी भी एल्गोरिदम को स्थानीय / वैश्विक अधिकतम सीमा के आसपास नहीं मिलता है। मैं व्यक्तिगत रूप से कलमन का उपयोग आदत से अधिक बार करता हूं।

यह सच है कि राज्य के सुचारू अनुमानों में फ़िल्टरिंग की तुलना में छोटे रूप में भिन्नता होती है, इसलिए मुझे लगता है कि आप इस बारे में कुछ अंतर्ज्ञान के लिए सही हैं, लेकिन आप वास्तव में राज्यों का उपयोग नहीं कर रहे हैं। आप जिस संभावना को अधिकतम करने की कोशिश कर रहे हैं वह राज्यों का कार्य नहीं है।


KF और EM कितने अलग हैं? वे अंत में एक ही तरह के शिष्टाचार में एक ही काम कर रहे हैं।
मिच

1
@ मिच शायद ऐसा कुछ है जो एक टिप्पणी से अधिक के योग्य है। यह निर्भर करेगा कि आप KF के साथ किस सामान्य प्रयोजन के अनुकूलक का उपयोग करते हैं, और आप किस प्रकार के EM का उपयोग करते हैं। मैं इसे देखे बिना बहुत निश्चित नहीं होने जा रहा हूं।
टेलर

7

सामान्य तौर पर, उत्पाद नियम द्वारा, सटीक संभावना को लिखा जा सकता है। राज्य अंतरिक्ष मॉडल की धारणा से, यह निम्नानुसार है कि पिछले अवलोकनों पर प्रत्येक सशर्त के प्रत्याशित वेक्टर और विचरण मैट्रिक्स को रूप में व्यक्त किया जा सकता है और

(y1,...,yn)=(y1)Πमैं=2n(yमैं|y1,...,yमैं-1)
yमैं
(yमैं|y1,...,yमैं-1)=(एचएक्सटी+zटी+wटी|y1,...,yमैं-1)=एच(एक्सटी|y1,...,yमैं-1)+zटी+wटी=एचएक्स^टी|टी-1+zटी,
वीआर(yमैं|y1,...,yमैं-1)=वीआर(एचएक्सटी+zटी+wटी|y1,...,yमैं-1)=एचवीआर(एक्सटी|y1,...,yमैं-1)एच'+वीआरwटी=एचपीटी|टी-1एच'+आर
तो यह आपको किसी भी सहज अनुमान की गणना के बिना सटीक संभावना देता है।

यद्यपि आप निश्चित रूप से सुचारू अनुमानों का उपयोग कर सकते हैं जो वास्तव में अज्ञात राज्यों के बेहतर अनुमान हैं, यह आपको संभावना समारोह नहीं देगा। वास्तव में आप अपने स्वयं के अपेक्षित मूल्य का अनुमान लगाने के लिए के देखे गए मूल्य का उपयोग कर रहे होंगे, इसलिए ऐसा लगता है कि इससे परिणामी अनुमानों में कुछ पूर्वाग्रह पैदा होंगे। yमैं


0

मुझे लगता है कि "क्यों" चौरसाई वितरण का उपयोग नहीं किया जाता है (आमतौर पर) दक्षता के रूप में एक बेहतर जवाब है। सिद्धांत रूप में यह इस प्रकार है कि (चौरसाई) सीमांत संभावना की गणना इस प्रकार की जाती है कि वह एक-से-एक अर्थों में होता है। अवलोकन j हटाएं, शेष डेटा पर कलमन स्मूथ चलाएं। फिर अनदेखी y (j) की संभावना का मूल्यांकन करें। इसे सभी j के लिए दोहराएं। लॉग-अप संभावनाएँ बढ़ाएँ। इस के तेजी से संस्करण आयोजित किए गए नमूनों (जैसे k- गुना CV) के ब्लॉक (यादृच्छिक) के साथ काम करता है। ध्यान दें कि इस योजना के लिए कलमन फ़िल्टर / स्मूथी के अधिक सामान्य कार्यान्वयन की आवश्यकता होती है जो आवश्यक रूप से माप अपडेट को मनमाने ढंग से छोड़ सकते हैं। बैकवर्ड / स्मूथिंग पास माप (आरटीएस एल्गोरिथ्म वैसे भी) का उपयोग नहीं करता है और समान रहता है।

यदि समय-श्रृंखला "लंबे समय तक पर्याप्त" है, तो ऐसा करने में थोड़ा उपयोगी लाभ होता है क्योंकि फ़िल्टरिंग संभावना इसकी प्रारंभिक क्षणिक "जलता है"। लेकिन अगर डेटासेट छोटा है, तो अधिक महंगा स्मूथिंग संभावना के लायक हो सकता है। फिक्स्ड-लैग स्मूथ एक अंदरूनी समाधान हो सकता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.