संभावना पर विकिपीडिया प्रविष्टि अस्पष्ट लगती है


26

मेरे पास "सशर्त संभावना" और "संभावना" के बारे में एक सरल प्रश्न है। (मैं पहले ही इस सवाल का सर्वेक्षण कर चुका हूं लेकिन कोई फायदा नहीं हुआ।)

यह संभावना पर विकिपीडिया पृष्ठ से शुरू होता है । वे यह कहते हैं:

संभावना पैरामीटर मान का एक सेट की, , यह देखते हुए परिणामों , उन मनाया उन पैरामीटर मान दिया परिणामों की संभावना है कि के बराबर हैθx

L(θx)=P(xθ)

महान! इसलिए अंग्रेजी में, मैंने इसे इस रूप में पढ़ा: "थीटा को बराबर करने वाले मापदंडों की संभावना, दिए गए डेटा एक्स = एक्स, (बाएं हाथ-साइड), डेटा एक्स की एक्स के बराबर होने की संभावना के बराबर है, यह देखते हुए कि पैरामीटर थीटा के बराबर हैं ”। ( जोर जोर से मेरा है )।

हालांकि, बाद में उसी पृष्ठ पर 3 लाइनों से कम नहीं, विकिपीडिया प्रविष्टि फिर कहने के लिए जाती है:

मान लें कि एक असतत प्रायिकता वितरण पी के साथ एक यादृच्छिक चर है जो कि पैरामीटर \ थीटा पर निर्भर करता है । फिर समारोहXpθ

L(θx)=pθ(x)=Pθ(X=x),

के एक समारोह के रूप में माना θ , संभावना समारोह कहा जाता है (की है θ , यह देखते हुए परिणाम x यादृच्छिक चर का X )। कभी-कभी पैरामीटर मान \ थीटा के लिए X के मान x की संभावना को P (X = x \ mid \ the थीटा ) के रूप में लिखा जाता है ; अक्सर P (X = x; \ theta) के रूप में लिखा जाता है , इस बात पर जोर देने के लिए कि यह \ mathcal {L} (\ theta \ mid x) से भिन्न होता है, जो एक सशर्त संभावना नहीं है , क्योंकि \ theta एक पैरामीटर है और एक यादृच्छिक चर नहीं है।XθP(X=xθ)P(X=x;θ)L(θx)θ

( जोर जोर से मेरा है )। तो, पहली बोली में, हमें सचमुच P (x \ mid \ theta) की सशर्त संभावना के बारे में बताया जाता है P(xθ), लेकिन इसके तुरंत बाद, हमें बताया जाता है कि यह वास्तव में सशर्त संभावना नहीं है, और वास्तव में P के रूप में लिखा जाना चाहिए। X = xP(X=x;θ) ? \ Theta) ?

तो, कौन सा है? क्या वास्तव में संभावना पहले शर्त को एक सशर्त संभाव्यता को दर्शाती है? या यह एक सरल प्रायिकता अला दूसरी बोली उद्धृत करता है?

संपादित करें:

इस प्रकार अब तक मुझे मिले सभी उपयोगी और व्यावहारिक जवाबों के आधार पर, मैंने अपने प्रश्न - और मेरी समझ को इस प्रकार संक्षेप में प्रस्तुत किया है:

  • में अंग्रेजी , हम कहते हैं कि, "संभावना मानकों का एक समारोह है, मनाया आंकड़ों को देखते हुए।" में गणित :, हम के रूप में यह लिखना ।L(Θ=θX=x)
  • संभावना एक संभावना नहीं है।
  • संभावना एक संभावना वितरण नहीं है।
  • संभावना संभावना जन नहीं है।
  • संभावना तथापि है, में अंग्रेजी : "एक संभाव्यता वितरण के उत्पाद, (निरंतर मामले), या संभावना जनता का एक उत्पाद, (असतत मामले), जहां पर , और parameterized द्वारा । " में गणित , हम तो यह इस तरह के रूप में लिखें: (निरंतर मामला, जहां एक पीडीएफ है), और रूप में (असतत मामला, जहां एक प्रायिकता द्रव्यमान है)। यहाँ लेने वाला यह है कि यहाँ कोई भी बिंदु नहीं हैΘ = θ एल ( Θ = θ | एक्स = एक्स ) = ( एक्स = एक्स ; Θ = θ ) एल ( Θ = θ | एक्स = एक्स ) = पी ( एक्स = एक्स ; Θ = θ ) पीX=xΘ=θL(Θ=θX=x)=f(X=x;Θ=θ)f
    L(Θ=θX=x)=P(X=x;Θ=θ)P एक सशर्त संभावना खेल में आ रहा है।
  • बेयस प्रमेय में, हमारे पास: । बोलचाल में, हमें बताया जाता है कि " एक संभावना है", हालांकि, यह सच नहीं है , क्योंकि एक हो सकता है वास्तविक यादृच्छिक चर। इसलिए, हालांकि हम सही ढंग से क्या कह सकते हैं, यह है कि यह शब्द एक संभावना के समान "समान" है। (?) [इस पर मुझे यकीन नहीं है।] पी(एक्स=एक्स|Θ=θ)P(Θ=θX=x)=P(X=xΘ=θ) P(Θ=θ)P(X=x)P(X=xΘ=θ) पी ( एक्स = एक्स | Θ = θ )ΘP(X=xΘ=θ)

संपादित करें II:

@Amoebas उत्तर के आधार पर, मैंने उनकी अंतिम टिप्पणी तैयार की है। मुझे लगता है कि यह काफी स्पष्ट है, और मुझे लगता है कि यह मेरे द्वारा किए जा रहे मुख्य विवाद को दूर करता है। (छवि पर टिप्पणियाँ)।

यहाँ छवि विवरण दर्ज करें

संपादित करें III:

मैंने बायसमियन मामले में @amoebas टिप्पणियों को अभी और बढ़ाया:

यहाँ छवि विवरण दर्ज करें


आप पहले से ही दो अच्छा जवाब मिल गया लेकिन यह भी जाँच stats.stackexchange.com/q/112451/35989
टिम

@ टिम उत्कृष्ट लिंक धन्यवाद! दुर्भाग्य से मैं अभी भी स्पष्ट नहीं हूं कि विशिष्ट प्रश्नों के लिए मेरे पास विज़िबिलिटी और सशर्त संभावना (?) है कि यह संयोजन के लिए लगता है। इस पर, मैं अभी भी अस्पष्ट हूं। : - /
क्रिएट्रन

2
"यह देखते हुए कि" हमेशा सशर्त संभाव्यता का मतलब नहीं है। कभी-कभी यह वाक्यांश केवल यह इंगित करने का एक प्रयास है कि प्रतीकों को गणना या वैचारिक रूप से तय करने का इरादा है।
whuber

2
कुछ लोग वास्तव में अर्धविराम के साथ ऐसे टाइपोग्राफिक सम्मेलन का उपयोग करते हैं। कई, कई सम्मेलन हैं: सदस्यता, सुपरस्क्रिप्ट, आदि। आपको अक्सर यह पता लगाना होगा कि किसी के संदर्भ से क्या मतलब है या वे क्या कर रहे हैं के उनके पाठ विवरण।
whuber

4
जब एक यादृच्छिक variate (यह है कि, माना एक मूल्य के यादृच्छिक चर से बाहर निकलने की है Θ ), संभावना परिवर्तन की परिभाषा में कुछ भी नहीं है। यह अभी भी एक संभावना है। तार्किक रूप से, यह कहने से अलग नहीं है कि एक नीला तितली अभी भी एक तितली है। तकनीकी तौर पर, इसके बारे में मुद्दों को उठाती है के संयुक्त वितरण Θ और एक्स जाहिर तौर पर इस संयुक्त वितरण को अच्छी तरह से परिभाषित किया जाना चाहिए और इससे पहले कि आप सशर्त संभावना के साथ संभावना की पहचान कर सकें, कुछ "नियमितता की स्थिति" का आनंद लें। θΘΘx
whuber

जवाबों:


18

मुझे लगता है कि यह काफी हद तक अनावश्यक रूप से विभाजित बाल है।

सशर्त संभावना की एक्स दी y दो यादृच्छिक चर के लिए परिभाषित किया गया है एक्स और वाई मूल्यों लेने एक्स और वाई । लेकिन हम भी संभावना के बारे में बात कर सकते हैं पी ( एक्स | θ ) की एक्स दिया θ जहां θ एक यादृच्छिक चर लेकिन एक पैरामीटर नहीं है।P(xy)P(X=xY=y)xyXYxyP(xθ)xθθ

ध्यान दें कि दोनों ही मामलों में एक ही शब्द "दिया" और एक ही अंकन का इस्तेमाल किया जा सकता है। अलग-अलग नोटेशन का आविष्कार करने की आवश्यकता नहीं है। इसके अलावा, जिसे "पैरामीटर" कहा जाता है और जिसे "यादृच्छिक चर" कहा जाता है, वह आपके दर्शन पर निर्भर कर सकता है, लेकिन गणित नहीं बदलता है।P()

विकिपीडिया से पहले बोली कहा गया है कि परिभाषा के द्वारा। यहाँ यह माना जाता है कि θ एक पैरामीटर है। दूसरी बोली का कहना है कि एल ( θ | x ) है नहीं एक सशर्त संभावना। इसका मतलब है कि इसके बारे में एक सशर्त संभावना नहीं है θ दिया एक्स ; और वास्तव में यह नहीं हो सकता, क्योंकि θ यहां एक पैरामीटर माना जाता है।L(θx)=P(xθ)θL(θx)θxθ

Bayes प्रमेय के संदर्भ में औरबीदोनोंयादृच्छिक चर हैं। लेकिन हम अभी भी कॉल कर सकते हैंपी(|एक)(के "संभावना"एक), और अब यह भी एक हैसदाशयी(की सशर्त संभावना)। यह शब्दावली बायेसियन आंकड़ों में मानक है। कोई नहीं कहता है कि यह संभावना के समान कुछ "समान" है; लोग बस इसे संभावना कहते हैं।

P(ab)=P(ba)P(a)P(b),
abP(ba)ab

नोट 1: अंतिम अनुच्छेद में, स्पष्ट रूप से की एक सशर्त संभावना है । एक संभावना के रूप में एल ( एक | ) इसके बारे में एक समारोह के रूप में देखा जाता है एक ; लेकिन यह एक संभावना वितरण (या सशर्त संभावना) नहीं है ! पर इसका अभिन्न एक जरूरी बराबर नहीं है 1 । (जबकि बी पर इसका अभिन्न अंग है )P(ba)bL(ab)aaa1b

नोट 2: कभी-कभी संभावना को एक अनियंत्रित आनुपातिकता स्थिरांक तक परिभाषित किया जाता है, जैसा कि @MichaelLew द्वारा जोर दिया जाता है (क्योंकि अधिकांश समय लोग संभावना अनुपात में रुचि रखते हैं )। यह उपयोगी हो सकता है, लेकिन हमेशा नहीं किया जाता है और आवश्यक नहीं है।


यह भी देखें कि "संभावना" और "संभावना" के बीच अंतर क्या है? और विशेष रूप से @ व्हिबर के उत्तर में।

मैं इस थ्रेड में भी @ टिम के जवाब से पूरी तरह सहमत हूं (+1)।


1
एक संभावना तो, कर सकते हैं वास्तव में, (अंतिम अनुच्छेद के अनुसार), एक सशर्त संभावना के बराबर, सही हो सकता है? यह वही है जो मैं वर्ग करने की कोशिश कर रहा हूं। उदाहरण के लिए पहले उत्तरों में से एक में, हमारे पास है: " सबसे पहले, संभावना आमतौर पर पैरामीटर मान दिए गए डेटा की संभावना के बराबर नहीं हो सकती है, क्योंकि संभावना केवल एक आनुपातिकता स्थिरांक तक परिभाषित होती है । फिशर उस बारे में स्पष्ट था। पहली औपचारिक संभावना (फिशर, 1922)। "यह वह है जिसे मैं वर्ग करने की कोशिश कर रहा हूं। संभावना है - क्या संभावना - कभी सशर्त संभावना के बराबर हो सकती है?
क्रिएट्रन

@ क्रिएट्रॉन मैंने अपने उत्तर में दो नोट्स जोड़े। क्या वे इसे स्पष्ट करते हैं?
अमीबा का कहना है कि मोनिका

1
Note1 के बारे में: के बाद से है एक सशर्त प्रायिकता वितरण, और के बाद से एल ( एक |) नहीं कर सकते एक प्रायिकता वितरण हो, तो यह है कि ज्यादातर 'सही' जिस तरह से हम के लिए समीकरण लिख सकते हैं मुझे लगता है इस संदर्भ में संभावना है: एल ( एक |) α पी ( | एक ) , और नहीं के रूप में, एल ( एक |) = पी ( | एक )P(b|a) L(a|b) L(a|b)P(b|a)L(a|b)=P(b|a)। (मुझे पता है कि अनुकूलन में इससे कोई फर्क नहीं पड़ता है, लेकिन मैं इस बात की शुद्धता को कम करने की कोशिश कर रहा हूं कि यहां क्या संभावना है)। क्या मेरी समझ सही है? आपके धैर्य के लिए धन्यवाद।
क्रिएट्रन

1
@Creatron मुझे लगता है कि आप यहां कई अलग-अलग मुद्दों को भ्रमित कर रहे हैं। मुझे लगता है कि आप एक बेयस प्रमेय सेटिंग के बारे में बात कर रहे हैं (जो कि मेरे नोट 1 को संदर्भित करता है), जहां और बी दोनों यादृच्छिक घटनाएं हैं। ठीक है, तो पी ( | एक ) की एक सशर्त प्रायिकता वितरण है दिया एक । लेकिन एल ( एक |) के एक समारोह के रूप में देखा जाना चाहिए माना जाता है एक की नहीं, ! और यह एक की संभावना वितरण नहीं हैपी(|)एल(|)क्योंकि यह एक करने के लिए योग नहीं करता है। इस मुद्दे या आनुपातिकता (जो मेरा नोट 2 है) से कोई लेना-देना नहीं है। मुझे लगता है कि हम लिख सकते हैं । L(a|b)=P(b|a)
अमीबा

1
अमीबा, शुक्रिया !! आप मेरे लिए उन अवधारणाओं को गाँठने में महत्वपूर्ण भूमिका निभाते रहे हैं, बहुत बहुत धन्यवाद !! :) मैं सिर्फ बायेसियन मामले के चित्र को "विस्तारित" करता हूं, और यह सुनिश्चित करने के लिए आपकी प्रतिक्रिया की सराहना करूंगा कि मैंने इसे सही ढंग से समझा है। मैंने भी आपके उत्तर को स्वीकार कर लिया है। एक बार फिर, बड़े पैमाने पर अनुग्रह!
क्रिएट्रन

10

आपको पहले ही दो अच्छे उत्तर मिल गए हैं, लेकिन चूंकि यह अभी भी स्पष्ट नहीं है कि आप मुझे एक प्रदान करते हैं। संभावना के रूप में परिभाषित किया गया है

L(θ|X)=P(X|θ)=ifθ(xi)

इसलिए हमारे पास संभावना कुछ पैरामीटर मान के दिया डेटा एक्स । यह संभावना द्रव्यमान (असतत मामले), या घनत्व (निरंतर मामले) कार्यों के उत्पाद के बराबर है की एक्स द्वारा parametrized θ । संभावना डेटा दिए गए पैरामीटर का एक फ़ंक्शन है। सूचना है कि θ एक पैरामीटर है कि हम अनुकूलित कर रहे हैं है, नहीं एक यादृच्छिक चर, तो यह यह करने के लिए आवंटित किसी भी संभावनाओं जरूरत नहीं है। यही कारण है कि विकिपीडिया कहता है कि सशर्त संभाव्यता संकेतन का उपयोग अस्पष्ट हो सकता है, क्योंकि हम किसी भी यादृच्छिक चर पर कंडीशनिंग नहीं कर रहे हैं। दूसरी ओर, बेयसियन सेटिंग में Bay हैθ XfXθθθ एक यादृच्छिक चर और वितरण होता है, इसलिए हम इसके साथ किसी अन्य यादृच्छिक चर के रूप में काम कर सकते हैं और हम पश्च संभावनाओं की गणना करने के लिए बेयस प्रमेय का उपयोग कर सकते हैं। बायेसियन संभावना अभी भी संभावना है क्योंकि यह हमें डेटा की संभावना के बारे में बताता है कि पैरामीटर दिया गया है, केवल अंतर यह है कि पैरामीटर को यादृच्छिक चर माना जाता है।

यदि आप प्रोग्रामिंग जानते हैं, तो आप प्रोग्रामिंग में ओवरलोड फ़ंक्शन के रूप में संभावना फ़ंक्शन के बारे में सोच सकते हैं । कुछ प्रोग्रामिंग भाषाएं आपको फ़ंक्शन करने की अनुमति देती हैं जो विभिन्न पैरामीटर प्रकारों का उपयोग करते समय अलग-अलग काम करती हैं। यदि आप इस तरह की संभावना के बारे में सोचते हैं, तो डिफ़ॉल्ट रूप से यदि तर्क के रूप में कुछ पैरामीटर मान लेता है और इस पैरामीटर को दिए गए डेटा की संभावना की वापसी करता है। दूसरी ओर, आप बायेसियन सेटिंग में ऐसे फ़ंक्शन का उपयोग कर सकते हैं, जहां पैरामीटर यादृच्छिक चर है, यह मूल रूप से समान आउटपुट की ओर जाता है, लेकिन इसे सशर्त संभावना के रूप में समझा जा सकता है क्योंकि हम यादृच्छिक चर पर कंडीशनिंग कर रहे हैं। दोनों मामलों में फ़ंक्शन समान कार्य करता है, बस आप इसका उपयोग करते हैं और इसे थोड़ा अलग तरीके से समझते हैं।

// likelihood "as" overloaded function
Default Likelihood(Numeric theta, Data X) {
    return f(X, theta); // returns likelihood, not probability
}

Bayesian Likelihood(RandomVariable theta, Data X) {
    return f(X, theta); // since theta is r.v., the output can be
                        // understood as conditional probability
}

इसके अलावा, आप बल्कि Bayesians नहीं पाएंगे जो Bayes प्रमेय को लिखते हैं

P(θ|X)L(θ|X)P(θ)

... यह बहुत भ्रामक होगा । सबसे पहले, आप के लिए होता है समीकरण के दोनों ओर X और इसका बहुत अर्थ नहीं होगा। दूसरा, हमारे पास पीछे की संभावना के बारे में पता करने के लिए संभावना θ दिए गए डेटा (यानी बात यह है कि आप चाहते हैं likelihoodist ढांचे में पता करने के लिए, लेकिन तुम नहीं जब θ एक यादृच्छिक चर नहीं है)। तीसरा, के बाद से θ एक यादृच्छिक चर रहा है, हमारे पास है और सशर्त संभावना के रूप में यह लिखें। द एलθ|XθθθL-नोटबंदी आमतौर पर संभावनावादी सेटिंग के लिए आरक्षित है। संभावना नाम का उपयोग कन्वेंशन द्वारा दोनों दृष्टिकोणों में समान चीज़ को दर्शाने के लिए किया जाता है: आपके डेटा और पैरामीटर को दिए गए ऐसे डेटा परिवर्तनों के अवलोकन की संभावना कैसे।


धन्यवाद टिम, यह मेरी समझ में बहुत मददगार रहा है। मैंने इस नए ज्ञान के साथ अपने प्रश्न ("संपादन" के अंतर्गत देखें) को फिर से समेकित किया है। मुझे विश्वास है कि मैंने अब जो कुछ भी लिखा है वह सच है। एकमात्र नियम बेयस नियम की सूची में अंतिम बिंदु है। यदि आप एक नज़र ले जा सकते हैं तो मैं बहुत सराहना करूँगा। धन्यवाद फिर से, और एक उत्थान है!
क्रिएट्रन

1
@ क्रिएट्रॉन मैंने अपने जवाब में अपने आखिरी बुलेट पर टिप्पणी करते हुए एक वाक्य जोड़ा, आशा है कि यह अब स्पष्ट है - यदि ऐसा नहीं है तो कृपया कहें।
टिम

(१/२) अतिभारित ऑपरेटर पर आपके संपादन से मुझे बहुत मदद मिलती है। क्या फिशर शायद मतलब की भावना), मामले में, जहां में 'गणितीय शुद्ध' (ऐतिहासिक मामले के तहत 1): इस मामले में, यह मुझे है कि हम यह कह सकता हूँ लगता है एक यादृच्छिक चर नहीं है, और बजाय एक पैरामीटर है एक पीडीएफ, (? या एक पैरामीटर के एक समारोह) का है, तो संभावना है बराबर की संभावना के पी ( एक्स = एक्स , θ ) । संभावना समारोह एक प्रायिकता वितरण नहीं है, यकीन है कि, लेकिन यह बराबर करने के लिए की संभावना है पी ( एक्स = एक्स , θ ) । क्या ये सही है? θP(X=x;θ)P(X=x;θ)
क्रिएट्रन

(2/2) हालांकि, दूसरे मामले में, (2), जब संदर्भ एक बायेसियन सेटिंग है, तो इस मामले में हमारे पैरामीटर एक आरवी हैं, और इसलिए इस मामले में संभावना आईएस वास्तव में है, एक सशर्त संभाव्यता वितरण, 2 में से P (b | a), हालाँकि, L (a | b) के रूप में लिखा गया है। इसलिए पहले 'डिफ़ॉल्ट' मामले में, संभावना निश्चित रूप से एक संभावना वितरण नहीं थी, (लेकिन एक संभावना मूल्य के बराबर थी), हालांकि दूसरे मामले में, संभावना आईएस वास्तव में एक संभाव्यता वितरण है, और यह संभावना वितरण सशर्त है संभाव्यता, जिसे P (b | a) लिखा जाता है। क्या ये सही है?
क्रिएट्रन

2
धन्यवाद टिम, भले ही मैंने @amoeba के उत्तर को स्वीकार कर लिया, आपकी पोस्ट ने वास्तव में मुझे इस विविध और गहरी अवधारणा को समझने में मदद की, जो आपके अधिभार को अधिभारित कार्यों के लिए सादृश्य है। फिर से धन्यवाद!
क्रिएट्रॉन

7

संभावना के सामान्य विवरणों के कई पहलू हैं जो भ्रम को बढ़ाते हैं। विकिपीडिया प्रविष्टि एक अच्छा उदाहरण है।

सबसे पहले, संभावना आमतौर पर पैरामीटर मान दिए गए डेटा की संभावना के बराबर नहीं हो सकती है , क्योंकि संभावना केवल एक आनुपातिकता स्थिरांक तक परिभाषित की जाती है। फिशर के बारे में स्पष्ट था कि जब उन्होंने पहली बार औपचारिकता की थी (फिशर, 1922)। इसका कारण यह प्रतीत होता है कि एक संभावना समारोह के अभिन्न (या योग) पर कोई प्रतिबंध नहीं है, और पैरामीटर (ओं) के किसी भी मूल्य दिए गए सांख्यिकीय मॉडल के भीतर डेटा के अवलोकन की संभावना प्रबल रूप से प्रभावित होती है। डेटा मानों की शुद्धता और पैरामीटर मानों के विनिर्देश की विशिष्टता का विवरण।x

दूसरे, व्यक्तिगत संभावना की तुलना में संभावना फ़ंक्शन के बारे में सोचना अधिक सहायक है। संभावना फ़ंक्शन मॉडल पैरामीटर मान (एस) का एक फ़ंक्शन है, जैसा कि संभावना फ़ंक्शन के ग्राफ से स्पष्ट है। इस तरह के ग्राफ से यह भी देखना आसान हो जाता है कि संभावना उन पैरामीटर मानों पर सेट होने पर डेटा को कितनी अच्छी तरह से भविष्यवाणी करता है, उसके अनुसार पैरामीटर (मानों) के विभिन्न मूल्यों की रैंकिंग की अनुमति देता है। संभावना कार्यों की खोज डेटा की भूमिका और पैरामीटर मानों को और अधिक स्पष्ट करती है, मेरी राय में, मूल प्रश्न में दिए गए विभिन्न सूत्रों की तुलना कर सकते हैं।

पैरामीटर मानों (मॉडल के भीतर) के लिए प्रेक्षित डेटा द्वारा दिए गए समर्थन की सापेक्ष डिग्री के रूप में संभावना फ़ंक्शन के भीतर संभावना के जोड़े के अनुपात का उपयोग अज्ञात आनुपातिक स्थिरांक की समस्या के आसपास हो जाता है क्योंकि उन स्थिरांक अनुपात में रद्द हो जाते हैं। यह ध्यान रखना महत्वपूर्ण है कि स्थिरांक आवश्यक रूप से उन संभावनाओं के अनुपात में रद्द नहीं होंगे जो अलग-अलग संभावना वाले कार्यों (यानी विभिन्न सांख्यिकीय मॉडल से) से आते हैं।

अंत में, सांख्यिकीय मॉडल की भूमिका के बारे में स्पष्ट होना उपयोगी है क्योंकि संभावना मॉडल मॉडल के साथ-साथ डेटा द्वारा भी निर्धारित की जाती है। यदि आप एक अलग मॉडल चुनते हैं, तो आपको एक अलग संभावना फ़ंक्शन मिलता है, और आप एक अलग अज्ञात आनुपातिकता निरंतर प्राप्त कर सकते हैं।

इस प्रकार, मूल प्रश्न का उत्तर देने के लिए, संभावना किसी भी प्रकार की संभावना नहीं है। वे कोल्मोगोरोव की संभावना के स्वयंसिद्धों का पालन नहीं करते हैं, और वे विभिन्न प्रकार की संभाव्यता द्वारा निभाई गई भूमिकाओं से निष्कर्ष के सांख्यिकीय समर्थन में एक अलग भूमिका निभाते हैं।

  1. फिशर (1922) आंकड़ों की गणितीय नींव पर http://rsta.royalsocietypublishing.org/content/222/594-604/309

1
आपकी पोस्ट की पहली पंक्ति इस विषय के साथ मेरी हताशा को प्रस्तुत करती है। किसी भी हाल में कुछ सवाल अपने पद, सर के आधार पर: 1) बायेसियन सूत्र अक्सर रूप में लिखा है , जहां (हमें बताया जाता है) किपी(|एक)एक 'संभावना' है, और कहा किपी(एक)एक 'पूर्व' है। यदि संभावना एक संभावना नहीं है, तो क्या यह कथन गलत है? 2) प्रश्न के लिए मेरी प्रेरणा एक अधिकतम संभावना अनुमानक को प्राप्त करने के संदर्भ में है, जो अनिवार्य रूप से एक (प्रतीत होता है) ठोस (सशर्त) संभावना की संभावना को जोड़ता है। उन दो उदाहरणों को देखते हुए, फिर उन में सामंजस्य कैसे बनाया जाए? धन्यवाद। P(a|b)=P(b|a)P(a)P(b)P(b|a)P(a)
क्रिएट्रन

@Creatron 1. नहीं, बयान जरूरी नहीं कि गलत हो। संभावना समारोह यह है कि सबूत गणना में कैसे प्रवेश करता है, और इसे एक संभावना वितरण के साथ संयोजन करने से एक संभाव्यता वितरण प्राप्त होता है। उस संदर्भ में अज्ञात आनुपातिकता स्थिरांक एक समस्या नहीं है क्योंकि संभावना समारोह और पूर्व संभाव्यता वितरण के उत्पाद के बाद मनमाने ढंग से बढ़ाया जाता है ताकि इसमें सही एकता अभिन्न (या योग) हो।
माइकल ल्यू

2. अधिकतम संभावना अनुमान लगाने के संदर्भ में यह कोई फर्क नहीं पड़ता है कि क्या आप सशर्त संभावना या संभावना का उपयोग करते हैं, क्योंकि वे पैरामीटर मानों की पूरी श्रृंखला पर आनुपातिक होंगे।
माइकल लुईस

1
L(θ|x)=P(x|θ)L(θ|x)P(x|θ)

धन्यवाद माइकेल, आपकी पोस्ट ने वास्तव में मेरी इस समस्या को समझने में मदद की है, बहुत सराहना की है।
क्रिएट्रन

7

विकिपीडिया को ऐसा कहना चाहिए था L(θ) is not a conditional probability of θ being in some specified set, nor a probability density of θ. Indeed, if there are infinitely many values of θ in the parameter space, you can have

θL(θ)=,
for example by having L(θ)=1 regardless of the value of θ, and if there is some standard measure dθ on the parameter space Θ, then in the same way one can have
ΘL(θ)dθ=.
An essential point that the article should emphasize is that L is the function
θP(xθ) and NOT xP(xθ).

2
+1 and thanks for the edit of my answer; I forgot that \mid exists.
amoeba says Reinstate Monica

@amoeba : Glad to help.
Michael Hardy

3

"I read this as: "The likelihood of parameters equaling theta, given data X = x, (the left-hand-side), is equal to the probability of the data X being equal to x, given that the parameters are equal to theta". (Bold is mine for emphasis)."

It's the probability of the set of observations given the parameter is theta. This is perhaps confusing because they write P(x|θ) but then L(θ|x).

The explanation (somewhat objectively) implies that θ is not a random variable. It could, for example, be a random variable with some prior distribution in a Bayesian setting. The point however, is that we suppose θ=θ, a concrete value and then make statements about the likelihood of our observations. This is because there is only one true value of θ in whatever system we're interested in.


Ok, so I then conclude based on this that i) The first image on the wikipedia is wrong, because (to my knowledge at least), P(a|b) is always read as a conditional probability, and what they SEEM to want to say, is that it's not - or ever - "probability of the data GIVEN this theta", it's rather, "probability of the data, PARAMETERIZED by this theta". Is this correct? Thanks. (To summarize, it seems that L(θ|x)=P(X=x;θ).
Creatron

This however is problematic, because in a Bayesian formulation, P(a|b)=P(b|a) P(a)P(b), the P(b|a) we are told is in fact the likelihood, (and is in fact a conditional probability). However this contradicts what we just said, and also contradicts what the wiki says in image 2.
Creatron

L(θ|x):=P(x|θ). The θ is to the left of x in L to emphasize that we think of L as a function of θ, the parameter we wish to optimize. So there's no contradiction.
Alex R.

Is the right-hand-side of L(θ|x) := P(x|θ) a conditional probability?
Creatron

This makes more sense to me now. Thanks for your initial help, @Alex.
Creatron
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.