likelihood पर टैग किए गए जवाब

एक यादृच्छिक चर दिया Xजो एक परिमाणित वितरण से उत्पन्न होता है , संभावना को parameter फ़ंक्शन के रूप में मनाया डेटा की संभावना के रूप में परिभाषित किया गया हैF(X;θ)θ:L(θ)=P(θ;X=x)

5
एक उदाहरण जहां संभावना सिद्धांत * वास्तव में * मायने रखता है?
क्या एक उदाहरण है जहां आनुपातिक संभावना के साथ दो अलग-अलग रक्षात्मक परीक्षण एक को स्पष्ट रूप से अलग (और समान रूप से रक्षात्मक) इनवॉइस तक ले जाएंगे , उदाहरण के लिए, जहां पी-मान दूर-दूर तक परिमाण का क्रम है, लेकिन विकल्प के लिए शक्ति समान है? मेरे द्वारा देखे …

2
यदि संभावना सिद्धांत अक्सर संभावना के साथ टकराता है तो क्या हम उनमें से एक को त्याग देते हैं?
हाल ही में यहां एक टिप्पणी में एक टिप्पणीकार ने लैरी वासरमैन के एक ब्लॉग की ओर इशारा किया, जो बताते हैं (बिना किसी स्रोत के) जो अक्सर अनुमान की संभावना के सिद्धांत से टकराता रहता है। संभावना सिद्धांत बस यह कहता है कि इसी तरह के कार्यों को उपजाने …

1
प्रोफ़ाइल संभावना के नुकसान क्या हैं?
मानकों का एक वेक्टर पर विचार करें के साथ, θ 1 ब्याज की पैरामीटर, और θ 2 एक उपद्रव पैरामीटर।(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 यदि संभावना से डेटा का निर्माण किया है एक्स , के लिए प्रोफ़ाइल संभावना θ 1 के रूप में परिभाषित किया गया है एल पी ( θ 1 ; …

5
व्यवहार में "संभावना का केवल आनुपातिकता के गुणक स्थिर तक परिभाषित किया गया है" क्या करता है?
मैं एक पेपर पढ़ रहा हूं, जहां लेखक बेयर्स प्रमेय के लिए अधिकतम संभावना अनुमान की चर्चा से अग्रणी हैं, शुरुआती लोगों के लिए एक परिचय के रूप में। एक संभावना उदाहरण के रूप में, वे एक द्विपद वितरण के साथ शुरू करते हैं: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} और फिर दोनों …

4
लॉग-लाइक बनाम बनाम संभावना का उपयोग करने के लिए सैद्धांतिक प्रेरणा
मैं एक गहरे स्तर पर सांख्यिकी और संभाव्यता सिद्धांत में लॉग-लाइबिलिटी (और शायद अधिक सामान्यतः लॉग-प्रायिकता) की सर्वव्यापीता को समझने की कोशिश कर रहा हूं। लॉग-संभाव्यताएं सभी जगह दिखाई देती हैं: हम आमतौर पर विश्लेषण के लिए लॉग-लाइबिलिटी के साथ काम करते हैं (उदाहरण के लिए अधिकतमकरण), फिशर सूचना को …

4
जब हम आम तौर पर अनइंफॉर्मेटिव या सब्जेक्टिव पादरियों का उपयोग करते हैं, तो व्याख्या में बेज़ियन फ्रेमवर्क कैसे बेहतर होता है?
यह अक्सर, तर्क दिया जाता है बायेसियन ढांचे व्याख्या में एक बड़ा लाभ यह है कि (frequentist से अधिक) है क्योंकि यह डेटा दिया एक पैरामीटर की संभावना की गणना करता है - p(θ|x)p(θ|x)p(\theta|x) के बजाय p(x|θ)p(x|θ)p(x|\theta) frequentist ढांचे में के रूप में । अब तक सब ठीक है। लेकिन, …

1
संभावना सिद्धांत के बारे में प्रश्न
मैं वर्तमान में लिकलीहुड प्रिंसिपल को समझने की कोशिश करता हूं और मुझे बिल्कुल नहीं मिलता। इसलिए, मैं एक सूची के रूप में अपने सभी प्रश्न लिखूंगा, भले ही वे बहुत बुनियादी प्रश्न हों। इस सिद्धांत के संदर्भ में "सूचना के सभी" वाक्यांश का वास्तव में क्या मतलब है? (जैसा …

2
एक मॉडल के एआईसी और उसके लॉग-ट्रांसफ़ॉर्म किए गए संस्करण की तुलना करना
मेरे प्रश्न का सार यह है: आज्ञा देना एक बहुभिन्नरूपी सामान्य रैंडम वैरिएबल है जिसका माध्य और सहसंयोजक मैट्रिक्स । चलो , यानी । मैं कैसे एक मॉडल के एआईसी की तुलना वास्तविकताओं के अनुरूप करने के लिए फिट कर सकता हूं जो एक मॉडल वास्तविकताओं का अवलोकन करने के …

2
एक अंतरंग संभावना के साथ वास्तव में सरल मॉडल का एक उदाहरण क्या होगा?
अनुमानित बायेसियन अभिकलन वास्तव में किसी भी स्टोकेस्टिक मॉडल को फिट करने के लिए एक बहुत ही अच्छी तकनीक है, जो उन मॉडलों के लिए अभिप्रेत है जहाँ संभावना संभव नहीं है (कहते हैं, यदि आप मापदंडों को ठीक करते हैं तो आप मॉडल से नमूना ले सकते हैं लेकिन …

3
एक univariate घातीय Hawkes प्रक्रिया के लिए MLE ढूँढना
एकतरफा घातीय हॉक्स प्रक्रिया एक आत्म-रोमांचक बिंदु प्रक्रिया है जिसमें एक घटना आगमन दर है: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} जहां घटना के आगमन का समय है।t1,..tnt1,..tn t_1,..t_n लॉग संभावना फ़ंक्शन है −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} जिसे पुनरावर्ती रूप से …

2
क्या हम वास्तव में सिर्फ बायोसियन / अंतर्निहित अनइंस्टॉल करने वाले हैं?
किसी दिए गए निष्कर्ष की समस्या के लिए, हम जानते हैं कि बायेसियन दृष्टिकोण आम तौर पर एक सामंतवादी दृष्टिकोण से दोनों रूपों और परिणामों में भिन्न होता है। फ़्रीक्विनिस्टर्स (आमतौर पर मुझे शामिल करते हैं) अक्सर बताते हैं कि उनके तरीकों को पूर्व की आवश्यकता नहीं है और इसलिए …

2
वाल्टमीटर कहानी पर अक्सर क्या होता है?
वाल्टमीटर कहानी और इसकी विविधताओं पर अक्सर क्या होता है? इसके पीछे विचार यह है कि एक सांख्यिकीय विश्लेषण जो काल्पनिक घटनाओं की अपील करता है, उसे संशोधित करना होगा यदि बाद में पता चला कि उन काल्पनिक घटनाओं को ग्रहण नहीं किया जा सकता था। विकिपीडिया पर कहानी का …

1
क्या आपको एक बायेसियन होने की संभावना सिद्धांत का पालन करना है?
यह प्रश्न इस सवाल से प्रेरित है: कब (यदि कभी) एक लगातार दृष्टिकोण एक बायेसियन की तुलना में बेहतर है? जैसा कि मैंने उस प्रश्न के मेरे समाधान में पोस्ट किया था, मेरी राय में, यदि आप एक निरंतरवादी हैं, तो आपको संभावना सिद्धांत का पालन करने / पालन करने …

1
रैखिक गौसियन कलमैन फ़िल्टर के लिए लॉजिकेलिहाइड पैरामीटर व्यास का अनुमान
मैंने कुछ कोड लिखे हैं जो कि n-आयामी राज्य वेक्टर के लिए रेखीय गॉसियन स्टेट स्पेस एनालिसिस के लिए कलमन फ़िल्टरिंग (कई अलग-अलग कलमन-प्रकार फ़िल्टर [सूचना फ़िल्टर एट अल।] का उपयोग करके) कर सकते हैं। फ़िल्टर बहुत अच्छा काम करते हैं और मुझे कुछ अच्छा आउटपुट मिल रहा है। हालाँकि, …

2
एआर (1) विषमलैंगिक माप त्रुटियों के साथ प्रक्रिया
1. समस्या मैं एक चर के कुछ माप , जहां टी = 1 , 2 , । । , एन , जिसके लिए मैं एक वितरण च y टी ( y टी ) एमसीएमसी, जो सादगी मैं मान लेंगे के लिए मतलब की एक गाऊसी है के माध्यम से प्राप्त …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.