एक KLT ट्रैकर में उलटे हेसियन के प्रतिजन की व्याख्या


12

मैं एक मास्टर छात्र हूं, कंप्यूटर विजन में एक सेमिनार की तैयारी कर रहा हूं। इन विषयों में कनाड-लुकास-तोमासी (KLT) ट्रैकर है, जैसा कि इसमें वर्णित है

जे। शि।, सी। तोमासी, "ट्रैक करने के लिए अच्छी सुविधाएँ" । सीवीपीआर '94 की कार्यवाही।

यहां एक वेब संसाधन है जो मैं KLT ट्रैकर को समझने के लिए उपयोग कर रहा हूं। मुझे गणित के साथ कुछ मदद चाहिए, क्योंकि मैं रैखिक बीजगणित में थोड़ा कठोर हूं और कंप्यूटर की दृष्टि से कोई पूर्व अनुभव नहीं है।

(सारांश में चरण 5) के लिए इस सूत्र में, व्युत्क्रम हेसियन पर ध्यान दें:Δp

Δp=H1Σx[IWp]T[T(x)I(W(x;p))]

लेख में, ट्रैक करने के लिए अच्छी विशेषताओं को उन लोगों के रूप में परिभाषित किया गया है, जहां व्युत्क्रम हेसियन मेट्रिसेस के योग में बड़े, समान eigenvalues: । मैं यह समझने में असमर्थ था कि यह कैसे और कहाँ से लिया गया है, गणितीय रूप से।min(λ1,λ2)>threshold

अंतर्ज्ञान यह है कि यह एक कोने का प्रतिनिधित्व करता है; टी कि मिलता है। क्या है कि eigenvalues ​​के साथ क्या करना है? मुझे उम्मीद है कि अगर हेसियन के मूल्य कम हैं, तो कोई बदलाव नहीं है, और यह एक कोने नहीं है। यदि वे उच्च हैं, तो यह एक कोने है। क्या किसी को पता है कि केएलटी ट्रैकर के पुनरावृत्तियों में \ Delta p को निर्धारित करने के लिए उलटे हेसियन के स्वदेशी में कॉर्नर्नैस का अंतर्ज्ञान कैसे आता है Δp?

मैं संसाधनों का दावा करने में सक्षम रहा हूं कि उलटा हेसियन छवि सहसंयोजक मैट्रिक्स से संबंधित है। इसके अलावा, छवि सहसंयोजक तीव्रता परिवर्तन को इंगित करता है, और फिर यह समझ में आता है ... लेकिन मैं यह पता लगाने में असमर्थ रहा हूं कि वास्तव में एक छवि सहसंयोजक मैट्रिक्स एक छवि के संबंध में क्या है, और वेक्टर नहीं, या छवियों का एक संग्रह।

इसके अलावा, eigenvalues ​​का सिद्धांत घटक विश्लेषण में अर्थ है, यही वजह है कि मुझे एक छवि कोवरियनस मैट्रिक्स के लिए विचार मिलता है, लेकिन मुझे यकीन नहीं है कि इसे हेसियन पर कैसे लागू किया जाए, क्योंकि यह आमतौर पर एक छवि पर लागू होता है। हेस्सियन, जहाँ तक मैं समझता हूँ, एक है मैट्रिक्स के लिए 2 डेरिवेटिव को परिभाषित करने , , और एक निश्चित स्थान पर ।x y x y ( x , y )2×2xyxy(x,y)

मैं वास्तव में इस के साथ मदद की सराहना करता हूं, जैसा कि मैं इस पर 3+ दिनों के लिए रहा हूं, यह सिर्फ एक छोटा सूत्र है और समय समाप्त हो रहा है।


ठीक है, मैं बहुत अधिक प्रिंसिपल वक्रता, अंतर geomatry, मैट्रिक्स स्थिति संख्या (अच्छी तरह से वातानुकूलित मैट्रिक्स) से संबंधित वेब-संसाधनों के एक समूह के माध्यम से मिला है। मुझे अभी भी संगोष्ठी के लिए एक उचित स्पष्टीकरण तैयार करने की आवश्यकता है। एक बार मेरे पास यह है या तो मैं इसे यहां प्रकाशित करूंगा, या इस पृष्ठ को संगोष्ठी से जोड़ दूंगा।

जवाबों:


5

उन्हें 2 डी चिकनाई शर्तों के रूप में सोचो।
पैच चिकना, मैट्रिक्स रैंक कम है और मैट्रिक्स करीब करीब एकवचन है।

एक सीधे किनारे पर (एक कोने में नहीं), बस एक प्रतिध्वनि बड़ी होगी।
एक कोने पर दोनों बड़े होंगे।

Eigenvalues ​​का उपयोग करने का अर्थ है कि किनारे का कोण कोई कारक नहीं है, और किसी भी कोण पर, एक किनारे सिर्फ एक बड़ा ईवा देगा


आपके उत्तर के लिए धन्यवाद। मैंने कई संसाधनों को समान अंतर्ज्ञान दिया है, और एपर्चर समस्या पर चर्चा की है। अंतर्ज्ञान स्पष्ट है और था। मेरा प्रश्न प्रकृति में अधिक गणितीय था, और एक बार जब मुझे उत्तर मिला तो पता चला कि यह बहुत सरल था। बस मूल मैट्रिक्स गुण। इसी तरह के ईजेंवल्यूज का मतलब है कि मैट्रिक्स अच्छी तरह से वातानुकूलित है, और अधिकतम ईजेनवल्यू बाउंडेड है, इसलिए कम बाउंड देने से आइजनवेल्यूज समान हो जाता है। इसके अलावा और अधिक, eigenvalues ​​प्रिंसिपल वक्रता के लिए सहसंबंधी, हेसियन के लिए। यह वह जानकारी है जो मैं उस समय देख रहा था।

मैं आपके उत्तर को फिर से पढ़ता हूं, और मैं टिप्पणी को eigenvalues ​​और कोण व्यावहारिक से संबंधित पाता हूं। मेरे साथ साझा करने के लिए धन्यवाद।

आपको इसे "उत्तरित" के रूप में चिह्नित करना चाहिए।
आदि शावित
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.