आपको पहले फिशर सूचना मैट्रिक्स और हेस्सियन के संबंध और मानक त्रुटियों के बारे में इस मूल प्रश्न की जांच करनी चाहिए
मान लीजिए कि हमारे पास एक सांख्यिकीय मॉडल (वितरण का परिवार) है {चθ: ∈ θ Θ }। सबसे सामान्य मामले में हमारे पास हैघi m ( Θ ) = d, इसलिए यह परिवार द्वारा परिचालित है θ = (θ1, … ,θघ)टी। कुछ नियमित परिस्थितियों के तहत, हमारे पास है
मैंमैं , जे( Θ ) = -इθ[∂2l ( X); θ )∂θमैं∂θजे] =-इθ[एचमैं , जे( एल ( एक्स); θ ) ) ]
कहाँ पे मैंमैं , जे एक फिशर सूचना मैट्रिक्स है (के एक समारोह के रूप में) θ) तथा एक्स मनाया गया मान (नमूना) है
l ( X); θ ) = एल एन (चθ( एक्स)) ) , के लिए कुछ θ ∈ Θ
तो फिशर सूचना मैट्रिक्स कुछ के तहत लॉग-प्रायिकता के हेसियन का एक नकारात्मक अपेक्षित मूल्य हैθ
अब मान लें कि हम अज्ञात पैरामीटर के कुछ वेक्टर फ़ंक्शन का अनुमान लगाना चाहते हैं ψ ( θ )। आमतौर पर यह वांछित है कि अनुमान लगाने वालाटी( एक्स)) = (टी1( एक्स)) , … ,टीघ( एक्स)) ) निष्पक्ष होना चाहिए, अर्थात
∀θ ∈ Θ इθ[ टी( एक्स)) ] = ψ ( θ )
क्रामर राव लोअर बाउंड ने कहा कि हर निष्पक्ष के लिए टी( एक्स)) सी। ओvθ( टी( एक्स)) ) संतुष्ट
सी। ओvθ( टी( एक्स)) ) ≥∂ψ ( θ )∂θमैं- 1( θ ) (∂ψ ( θ )∂θ)टी= बी ( θ )
कहाँ पे A ≥ बी matrices के लिए इसका मतलब है कि ए - बीहै सकारात्मक अर्द्ध निश्चित ,∂ψ ( θ )∂θ बस एक याकूब है जेमैं , जे( Ψ )। ध्यान दें कि अगर हम अनुमान लगाते हैंθ, अर्थात् ψ ( θ ) = θ, ऊपर को सरल करता है
सी। ओvθ( टी( एक्स)) ) ≥मैं- 1( θ )
लेकिन यह हमें वास्तव में क्या बताता है? उदाहरण के लिए, उसे याद करें
v aआरθ(टीमैं( एक्स)) ) = [ सी ओvθ( टी( एक्स)) )]मैं , मैं
और हर सकारात्मक अर्ध-निश्चित मैट्रिक्स के लिए ए विकर्ण तत्व गैर-नकारात्मक होते हैं
∀मैं एमैं , मैं≥ 0
ऊपर से हम यह निष्कर्ष निकाल सकते हैं कि प्रत्येक अनुमानित तत्व का विचरण मैट्रिक्स के विकर्ण तत्वों से घिरा है बी ( θ )
∀मैं v aआरθ(टीमैं( एक्स)) ) ≥ [ बी ( θ )]मैं , मैं
इसलिए CRLB हमें हमारे अनुमानक के विचरण को नहीं बताता है, लेकिन हमारे अनुमानक को wheter या नहीं इष्टतम है , अर्थात यदि यह सभी निष्पक्ष अनुमानकों में सबसे कम सहसंयोजक है।