"संभावना" और "संभावना" के बीच अंतर क्या है?


474

विकिपीडिया पृष्ठ का दावा है कि संभावना और संभावना अलग अवधारणाओं रहे हैं।

गैर-तकनीकी समानता में, "संभावना" आमतौर पर "संभाव्यता" का एक पर्याय है, लेकिन सांख्यिकीय उपयोग में परिप्रेक्ष्य में एक स्पष्ट अंतर है: संख्या जो कुछ मनाया परिणामों की संभावना है, जिसे पैरामीटर मानों के एक सेट के रूप में माना जाता है प्रेक्षित परिणामों को दिए गए पैरामीटर मानों के सेट की संभावना।

क्या कोई इस बारे में अधिक जानकारी दे सकता है कि इसका अर्थ क्या है? इसके अलावा, "संभावना" और "संभावना" असहमति के कुछ उदाहरण अच्छे होंगे।


9
बड़ा सवाल है। मैं "ऑड्स" और "मौका" को वहां भी जोड़
दूंगा

5
मुझे लगता है कि आपको इस प्रश्न पर एक नज़र डालनी चाहिए। आँकड़े ।stackexchange.com /questions/ 665/… क्योंकि संभावना के लिए आँकड़ा उद्देश्य और संभावना के लिए है।
रॉबिन जिरार्ड

3
वाह, ये कुछ बहुत अच्छे जवाब हैं। तो उसके लिए एक बड़ा धन्यवाद! कुछ बिंदु जल्द ही, मैं एक को विशेष रूप से "स्वीकृत" उत्तर के रूप में पसंद करूंगा (हालांकि कई ऐसे हैं जो मुझे लगता है कि समान रूप से योग्य हैं)।
डगलस एस। स्टोन्स

1
यह भी ध्यान दें कि "संभावना अनुपात" वास्तव में "संभावना अनुपात" है क्योंकि टिप्पणियों का एक फ़ंक्शन है।
जॉनरोस

जवाबों:


320

जवाब इस बात पर निर्भर करता है कि आप असतत या निरंतर यादृच्छिक चर के साथ काम कर रहे हैं। इसलिए, मैं अपने उत्तर को उसके अनुसार विभाजित करूंगा। मैं यह मानूंगा कि आप कुछ तकनीकी विवरण चाहते हैं और जरूरी नहीं कि यह सादे अंग्रेजी में एक स्पष्टीकरण हो।

रैंडम वेरिएबल्स को असतत करें

मान लीजिए कि आपके पास एक स्टोकेस्टिक प्रक्रिया है जो असतत मूल्यों को लेती है (उदाहरण के लिए, 10 बार सिक्का उछालने के परिणाम, 10 मिनट आदि में एक दुकान पर पहुंचने वाले ग्राहकों की संख्या)। ऐसे मामलों में, हम अंतर्निहित स्टोकेस्टिक प्रक्रिया के बारे में उपयुक्त धारणा बनाकर परिणामों के एक विशेष सेट के अवलोकन की संभावना की गणना कर सकते हैं (उदाहरण के लिए, सिक्का लैंडिंग के सिर की संभावना और सिक्का टॉस स्वतंत्र हैं)।p

द्वारा देखे गए परिणामों और मापदंडों के सेट को निरूपित करें जो कि स्टोचैस्टिक प्रक्रिया को रूप में वर्णित करते हैं । इस प्रकार, जब हम संभाव्यता की बात करते हैं तो हम गणना करना चाहते हैं । दूसरे शब्दों में, , the लिए विशिष्ट मान दिए जाने की संभावना है कि हम द्वारा दर्शाए गए परिणामों का अवलोकन करेंगे ।OθP(O|θ)θP(O|θ)O

हालाँकि, जब हम एक वास्तविक जीवन स्टोकेस्टिक प्रक्रिया का निर्माण करते हैं, तो हम अक्सर नहीं जानते हैं । हम बस का निरीक्षण और लक्ष्य तो के लिए एक अनुमान पर पहुंचने के लिए है कि दिए गए मनाया परिणामों एक प्रशंसनीय विकल्प होगा । हम जानते हैं कि को देखने के लिए की संभावना the का मान दिया गया है । इस प्रकार, एक 'प्राकृतिक' आकलन प्रक्रिया है कि हम वास्तव में निरीक्षण करेंगे कि संभावना को अधिकतम होगा the उस मूल्य को चुनने के लिए है । दूसरे शब्दों में, हम पैरामीटर मान पाते हैं कि निम्नलिखित समारोह को अधिकतम:θOθOθOP(O|θ)θOθ |θ

L(θ|O)=P(O|θ)

L(θ|O) को संभावना फ़ंक्शन कहा जाता है। ध्यान दें कि परिभाषा के अनुसार, संभावित फ़ंक्शन को पर वातानुकूलित किया गया है और यह अज्ञात पैरामीटर ।Oθ

सतत यादृच्छिक चर

निरंतर मामले में स्थिति एक महत्वपूर्ण अंतर के समान है। हम अब उस संभावना के बारे में बात नहीं कर सकते हैं जो हमने दी क्योंकि निरंतर मामले में | तकनीकीताओं में आए बिना, मूल विचार इस प्रकार है:OθP(O|θ)=0

परिणामों के साथ जुड़े संभावना घनत्व फ़ंक्शन (पीडीएफ) को निरूपित करें रूप में : । इस प्रकार, निरंतर मामले हम अनुमान में दिया परिणामों मनाया निम्नलिखित समारोह को अधिकतम द्वारा:Of(O|θ)θO

L(θ|O)=f(O|θ)

इस स्थिति में, हम तकनीकी रूप से यह दावा नहीं कर सकते हैं कि हम पैरामीटर मान पा रहे हैं जो उस संभावना को अधिकतम करता है जो हम अवलोकन करते हैं क्योंकि हम देखे गए परिणामों जुड़े पीडीएफ को अधिकतम करते हैं ।OO


35
माप सिद्धांत के दृष्टिकोण से असतत और निरंतर चर के बीच का अंतर गायब हो जाता है।
whuber

24
@whuber हां, लेकिन माप सिद्धांत का उपयोग करने वाला उत्तर सभी के लिए सुलभ नहीं है।

16
@ श्रीकांत: सहमत। टिप्पणी ओपी के लाभ के लिए थी, जो एक गणितज्ञ है (लेकिन शायद एक सांख्यिकीविद् नहीं) यह सोचकर गुमराह होने से बचने के लिए कि भेद के बारे में कुछ मौलिक है।
whuber

6
यदि आप को द्वारा प्रतिस्थापित , तो आप निरंतर घनत्व की व्याख्या उसी तरह कर सकते हैं , जैसे कि अगर हम (यानी प्रायिकता डेटा , बारे में एक अनन्तक्षेत्रीय क्षेत्र में सम्‍मिलित है ) और उत्तर ( यह स्पष्ट करता है कि हम एक हिस्टोग्राम के एक "infinintesimal" क्षेत्र "की गणना कर रहे हैं" )। हे पी आर ( हे ( हे ' , हे ' + हे ' ) | θ ) हे हे '( हे ' | θ ) हे 'हे 'OdOPr(O(O,O+dO)|θ)OOf(O|θ)dOdO
probabilityislogic

9
मुझे पार्टी में 5 साल से अधिक का समय हो गया है, लेकिन मुझे लगता है कि इस उत्तर के लिए एक बहुत ही महत्वपूर्ण अनुवर्ती आँकड़े होंगे ।stackexchange.com/questions/31238/ ... जो इस तथ्य पर जोर देता है कि संभावना फ़ंक्शन है संबंध में एक पीडीएफ नहीं । ) वास्तव में डेटा का एक पीडीएफ है जिसे पैरामीटर मान दिया जाता है, लेकिन चूँकि , अकेले the का एक कार्य है (एक स्थिर डेटा के रूप में रखा गया है), यह अप्रासंगिक है कि एक pdf है डेटा दी गई । θ एल ( θ एल θ एल ( θ ) θL(θ)θL(θLθL(θ)θ
शोभित

135

यह इस तरह का सवाल है, जिसके बारे में हर कोई जवाब देने वाला है और मुझे उम्मीद है कि सभी जवाब अच्छे होंगे। लेकिन आप एक गणितज्ञ, डगलस हैं, इसलिए मुझे गणितीय उत्तर देने की पेशकश करें।

एक सांख्यिकीय मॉडल को दो अलग-अलग वैचारिक संस्थाओं से जुड़ना पड़ता है: डेटा , जो कुछ सेट के तत्व (जैसे कि वेक्टर स्पेस) और डेटा व्यवहार का एक संभावित मात्रात्मक मॉडल है। मॉडल आमतौर पर अंक का प्रतिनिधित्व कर रहे एक परिमित आयामी कई गुना, सीमा के साथ एक कई गुना, या एक समारोह अंतरिक्ष पर (बाद एक "गैर पैरामीट्रिक" समस्या कहा जाता है)।xθθ

डेटा किसी फ़ंक्शन माध्यम से संभावित मॉडल से जुड़ा हुआ है । किसी भी के लिए , की संभावना (या प्रायिकता घनत्व) में किया जाता है । के लिए किसी भी , दूसरे हाथ पर, के एक समारोह के रूप में देखी जा सकती है और आम तौर पर इस तरह के लगातार दूसरे विभेदक जा रहा है के रूप में कुछ अच्छा गुण, मानी जाती है। देखने के लिए इरादा इस तरह से और इन मान्यताओं को लागू करने को फोन करके घोषणा की है "संभावना।"xθΛ(x,θ)θΛ(x,θ)xxΛ(x,θ)θΛΛ

यह एक अंतर समीकरण में चर और मापदंडों के बीच अंतर की तरह है: कभी-कभी हम समाधान का अध्ययन करना चाहते हैं (यानी, हम तर्क के रूप में चर पर ध्यान केंद्रित करते हैं) और कभी-कभी हम अध्ययन करना चाहते हैं कि समाधान मापदंडों के साथ कैसे बदलता है। मुख्य अंतर यह है कि आंकड़ों में हमें शायद ही कभी दोनों तर्कों के एक साथ भिन्नता का अध्ययन करने की आवश्यकता होती है; कोई सांख्यिकीय वस्तु नहीं है जो स्वाभाविक रूप से डेटा और मॉडल पैरामीटर दोनों को बदलने से मेल खाती है । यही कारण है कि आप इस द्विध्रुवीय के बारे में अधिक से अधिक सुनते हैं, ताकि आप गणितीय गणितीय सेटिंग्स में हो।xθ


6
+1, कितना अच्छा जवाब है। अंतर समीकरणों के साथ सादृश्य बहुत उपयुक्त लगता है।
१०:१५ बजे एमपिकटास

3
एक अर्थशास्त्री के रूप में, हालांकि यह उत्तर मेरे द्वारा सीखी गई अवधारणाओं की तुलना में निकटता से संबंधित नहीं है, यह सहज ज्ञान युक्त अर्थ में सबसे अधिक जानकारीपूर्ण था। बहुत धन्यवाद।
रॉबसन

1
वास्तव में, यह कथन वास्तव में सच नहीं है "कोई सांख्यिकीय वस्तु नहीं है जो स्वाभाविक रूप से डेटा एक्स और मॉडल मापदंडों दोनों को बदलने से मेल खाती है"। वहाँ है, यह कहा जाता है "चौरसाई, छानने और भविष्यवाणी", रैखिक मॉडल में इसके कलमन फ़िल्टर, nonlinear मॉडल में, वे पूर्ण nonlinear फ़िल्टर, en.wikipedia.org/wiki/Kushner_equit etc
कौवा

1
हाँ, बहुत अच्छा जवाब! जैसे ही यह लगता है, के मानक संकेतन के बजाय को चुनकर ऐसा लगता है, तो मेरे लिए यह देखना आसान हो गया कि हम हैं एक संयुक्त संभावना के साथ शुरू करना जिसे या तो संभावना या सशर्त संभावना के रूप में परिभाषित किया जा सकता है। साथ ही, "कुछ अच्छे गुण" टिप्पणी ने मदद की। धन्यवाद! पी ( एक्स , θ )Λ(x,θ)P(x,θ)
माइक विलियम्सन

2
@whuber हाँ, मैं जानता हूँ कि सामान्य अंकन नहीं है। यही कारण है कि यह मदद की! मैंने यह सोचना बंद कर दिया कि इसका एक विशेष अर्थ होना चाहिए और इसके बजाय सिर्फ तर्क का पालन करना चाहिए। ; -पीΛ
माइक विलियमसन

110

मैं अपने स्पष्टीकरण में गणित को कम से कम करने की कोशिश करूँगा क्योंकि पहले से ही कुछ अच्छे गणितीय स्पष्टीकरण हैं।

जैसा कि रॉबिन गिरंद संभावना और अंतर के बीच अंतर बताते हैं, संभावना और आँकड़ों के बीच अंतर का निकट संबंध है । एक अर्थ में संभाव्यता और आँकड़े खुद को उन समस्याओं से चिंतित करते हैं जो एक दूसरे के विपरीत या विपरीत हैं।

एक सिक्का टॉस पर विचार करें। (मेरा जवाब विकिपीडिया पर उदाहरण 1 के समान होगा ।) अगर हम जानते हैं कि सिक्का उचित है ( ) तो एक सामान्य संभावना प्रश्न है: एक पंक्ति में दो सिर होने की संभावना क्या है। इसका उत्तर ।P ( H H ) = P ( H ) × P ( H ) = 0.5 × 0.5 = 0.25p=0.5P(HH)=P(H)×P(H)=0.5×0.5=0.25

एक विशिष्ट सांख्यिकीय प्रश्न है: क्या सिक्का उचित है? इसका उत्तर देने के लिए हमें यह पूछने की आवश्यकता है: हमारा नमूना हमारी परिकल्पना का किस हद तक समर्थन करता है कि ?P(H)=P(T)=0.5

ध्यान देने की पहली बात यह है कि प्रश्न की दिशा उलट गई है। संभाव्यता में हम एक मानदंड ( ) के साथ शुरू करते हैं और किसी दिए गए नमूने की संभावना का अनुमान लगाते हैं (एक पंक्ति में दो सिर)। आंकड़ों में हम अवलोकन के साथ शुरू करते हैं (एक पंक्ति में दो सिर) और हमारे पैरामीटर ( ) के बारे में जानकारी बनाते हैं ।p = P ( H ) = 1 - P ( T ) = 1 - qP(head)p=P(H)=1P(T)=1q

उदाहरण 1 विकिपीडिया पर हमें दिखाता है कि एक पंक्ति में 2 सिर के बाद का अधिकतम संभावना अनुमान । लेकिन किसी भी तरह से डेटा सही पैरामीटर मान नियंत्रित नहीं करता है (चलो इस समय विवरण के साथ खुद को चिंता न करें)। वास्तव में केवल और विशेष रूप से बहुत छोटे मूल्यों को (सिक्के के दो फेंक) के बाद यथोचित रूप से समाप्त किया जा सकता है । बाद तीसरे फेंक पूंछ ऊपर आता है अब हम संभावना को दूर कर सकते हैं कि (यानी यह एक दो सिरों सिक्का नहीं है), लेकिन बीच में सबसे अधिक मूल्यों किया जा सकता है यथोचित डेटा द्वारा समर्थितp M L E = 1 p ( H ) = 0.5 p ( H ) p ( H ) = 0 n = 2 P ( H ) = 1.0 p ( H )P(H)pMLE=1p(H)=0.5p(H)p(H)=0n=2P(H)=1.0। ( लिए एक सटीक द्विपद 95% विश्वास अंतराल 0.094 से 0.992 है।p(H)

100 सिक्कों के बाद और (कहते हैं) 70 सिर, हमारे पास अब इस शक के लिए एक उचित आधार है कि सिक्का वास्तव में उचित नहीं है। पर एक सटीक 95% सीआई अब 0.600 से 0.787 है और 100 पीएस से 0.0000785 है।p ( H ) = 0.5p(H)p(H)=0.5

हालांकि मैंने स्पष्ट रूप से संभावना गणनाओं का उपयोग नहीं किया है, इस उदाहरण से संभावना की अवधारणा को पकड़ लिया जाता है: संभावना एक हद तक माप है जिसमें एक नमूना पैरामीट्रिक मॉडल में एक पैरामीटर के विशेष मूल्यों के लिए समर्थन प्रदान करता है


3
बहुत बढ़िया जवाब! विशेष रूप से तीन अंतिम पैराग्राफ बहुत उपयोगी हैं। निरंतर मामले का वर्णन करने के लिए आप इसका विस्तार कैसे करेंगे?
डेमेट्रीस

8
मेरे लिए, सबसे अच्छा जवाब। मुझे गणित में बिल्कुल भी आपत्ति नहीं है, लेकिन मेरे लिए गणित एक ऐसा उपकरण है, जो मैं चाहता हूं कि मैं शासन करूं (मैं अपनी मर्जी से गणित का आनंद नहीं लेता, लेकिन इससे मुझे क्या मदद मिलती है)। केवल इस उत्तर के साथ मुझे बाद का पता है।
मोर

73

मैं आपको लिकलीहुड थ्योरी के दृष्टिकोण से दृष्टिकोण दूंगा जो कि फिशर के साथ उत्पन्न हुआ - और उद्धृत विकिपीडिया लेख में सांख्यिकीय परिभाषा का आधार है।

मान लें कि आपके पास यादृच्छिक चर जो कि एक मानकीकृत वितरण से उत्पन्न होते हैं , जहां The को हुए पैरामीटर है । तब की संभावना होगी: , ज्ञात । एफ ( एक्स , θ ) θ एफ एक्स = एक्स पी ( एक्स = एक्स ) = एफ ( एक्स , θ ) θXF(X;θ)θFX=xP(X=x)=F(x;θ)θ

अधिक बार, आपके पास डेटा और अज्ञात है। माना मॉडल को देखते हुए , संभावना को डेटा के अवलोकन के रूप में परिभाषित किया गया है जो कि : कार्य के रूप में मनाया जाता है । ध्यान दें कि ज्ञात है, लेकिन अज्ञात है; वास्तव में संभावना को परिभाषित करने की प्रेरणा वितरण के पैरामीटर को निर्धारित करना है।θ एफ θ एल ( θ ) = पी ( θ , एक्स = एक्स )XθFθL(θ)=P(θ;X=x)θXθ

हालाँकि ऐसा लगता है कि हमने प्रायिकता फ़ंक्शन को फिर से लिखा है, इसका एक महत्वपूर्ण परिणाम यह है कि संभावना फ़ंक्शन प्रायिकता के नियमों का पालन नहीं करता है (उदाहरण के लिए, यह [0, 1] अंतराल के लिए बाध्य नहीं है)। हालांकि, संभावना समारोह मनाया डेटा की संभावना के लिए आनुपातिक है।

संभावना की यह अवधारणा वास्तव में विचार के एक अलग स्कूल की ओर ले जाती है, "संभावनावादी" (लगातारवादी और बायेसियन से अलग) और आप सभी विभिन्न ऐतिहासिक बहस के लिए खोज कर सकते हैं। आधारशिला लिकेलिहाइड सिद्धांत है, जो अनिवार्य रूप से कहता है कि हम संभावना फ़ंक्शन (न ही बायेसियन और न ही फ़्रीक्विनर्स इसे सीधे स्वीकार कर सकते हैं, क्योंकि यह संभावना पर आधारित नहीं है) से निष्कर्ष निकाल सकता है। इन दिनों स्कूलों में "अक्सरवादी" के रूप में जो कुछ पढ़ाया जाता है, वह वास्तव में अक्सरवादी और संभावनावादी सोच का एक मिश्रण है।

गहन अंतर्दृष्टि के लिए, एक अच्छी शुरुआत और ऐतिहासिक संदर्भ एडवर्ड्स की संभावना है । एक आधुनिक लेने के लिए, मैं रिचर्ड रॉयल के अद्भुत मोनोग्राफ, सांख्यिकीय साक्ष्य की सिफारिश करूंगा : एक संभावना प्रतिमान


3
दिलचस्प जवाब, मैंने वास्तव में सोचा था कि "संभावना स्कूल" मूल रूप से "फ्रीक्वेंसर्स थे जो नमूने स्कूल को डिजाइन नहीं करते हैं", जबकि "डिजाइन स्कूल" बाकी फ्रीक्वेंटर्स थे। मुझे वास्तव में यह कहना मुश्किल है कि मैं कौन सा "स्कूल" हूं, क्योंकि मुझे हर स्कूल से थोड़ा ज्ञान है। "प्रोबेबिलिटी विद एक्सटेंडेड लॉजिक" स्कूल मेरा पसंदीदा (डुह) है, लेकिन मुझे इसके बारे में वास्तविक समस्याओं को लागू करने में पर्याप्त व्यावहारिक अनुभव नहीं है।
संभाव्यताविषयक

5
+1 के लिए "संभावना फ़ंक्शन, संभाव्यता के नियमों का पालन नहीं करता है (उदाहरण के लिए, यह [0, 1] अंतराल के लिए बाध्य नहीं है। हालांकि, संभावना फ़ंक्शन मनाया डेटा के प्रोबायिल्टी के लिए आनुपातिक है।"
वाल्कस कैट

10
"संभावना समारोह, प्रायिकता के नियमों का पालन नहीं करता है" कुछ और स्पष्टीकरण का उपयोग कर सकता है, विशिष्ट रूप से इसे function: L (θ) = P (x; X = x) के रूप में लिखा गया है, यानी एक संभावना के साथ समान है!
19

आपके उत्तर के लिए धन्यवाद। क्या आप @locster द्वारा की गई टिप्पणी को संबोधित कर सकते हैं?
विवेक सुब्रमण्यम

2
मेरे लिए एक गणितज्ञ के रूप में, यह धार्मिक गणित की तरह पढ़ता है, विभिन्न मान्यताओं के साथ घटनाओं के अवसरों के लिए विभिन्न मूल्यों के परिणामस्वरूप होता है। क्या आप इसे तैयार कर सकते हैं, ताकि यह समझना आसान हो जाए कि अलग-अलग मान्यताएं क्या हैं और वे सभी क्यों समझ में आती हैं, बजाय इसके कि एक गलत है और दूसरा स्कूल / विश्वास सही है? (यह मानते हुए कि घटनाओं के
घटने के

55

उपरोक्त सभी ठीक तकनीकी उत्तरों को देखते हुए, मैं इसे भाषा में वापस ले जाने देता हूं: संभाव्यता प्रत्याशा (परिणाम के रूप में), संभावना की मात्रा पर भरोसा करती है (मॉडल में)।

मान लीजिए कि कोई हमें 'लाभदायक जुए के खेल' के लिए चुनौती देता है। फिर, संभावनाएँ हमें आपके लाभ और हानि के अपेक्षित प्रोफ़ाइल (मतलब, मोड, मंझला, भिन्नता, सूचना अनुपात, जोखिम पर मूल्य, जुआरी बर्बाद, और इसी तरह) की गणना करने के लिए काम करेगी। इसके विपरीत, संभावना हमें निर्धारित करने के लिए काम करेगी कि क्या हम उन संभावनाओं पर भरोसा करते हैं; या क्या हम 'एक चूहे को सूंघते हैं'।


संयोग से - चूंकि ऊपर किसी ने आंकड़ों के धर्मों का उल्लेख किया है - मेरा मानना ​​है कि संभावना अनुपात बायेसियन दुनिया का एक अभिन्न हिस्सा होने के साथ-साथ लगातार एक भी है: बायेसियन दुनिया में, बेयस फार्मूला सिर्फ पोस्टीरियर का उत्पादन करने की संभावना के साथ जोड़ती है।


यह जवाब मेरे लिए इसे भर देता है। मुझे यह सोचना था कि इसका क्या मतलब है जब मैंने पढ़ा कि संभावना संभावना नहीं है, लेकिन निम्नलिखित मामला मेरे पास आया। क्या संभावना है कि एक सिक्का उचित है, यह देखते हुए कि हम एक पंक्ति में चार सिर देखते हैं? हम वास्तव में यहाँ संभाव्यता के बारे में कुछ नहीं कह सकते हैं, लेकिन शब्द "विश्वास" उपयुक्त है। क्या हमें लगता है कि हम सिक्के पर भरोसा कर सकते हैं?
दोपहर

प्रारंभ में यह संभावना का ऐतिहासिक उद्देश्य रहा हो सकता है, लेकिन आजकल संभावना हर बायसियन गणना की है, और यह ज्ञात है कि संभावनाएं विश्वासों और प्रशंसनीयता को समाहित कर सकती हैं, यही कारण है कि दोनों व्याख्याओं को अस्वीकार करने के लिए डेम्पस्टर-शेफर सिद्धांत बनाया गया था।
गाबोरस

50

मान लीजिए कि आपके पास प्रमुखों के पास भूमि के शीर्षों के लिए प्रायिकता और साथ एक सिक्का है । चलो सिर से संकेत मिलता है और पूंछ संकेत मिलता है। को निम्नानुसार परिभाषित करेंp(1p)x=1x=0f

f(x,p)=px(1p)1x

f(x,2/3) 2/3 x दिए गए , की संभावना है दिए गए की संभावना है । मूल रूप से संभावना बनाम संभावना आपको बताती है कि घनत्व के किस पैरामीटर को चर माना जाता हैp=2/3f(1,p)px=1


ऊपर इस्तेमाल की गई सैद्धांतिक परिभाषाओं का अच्छा पूरक है!
फ्रैंक मौलानेर

मैं देख रहा हूं कि ट्रायल में हेड होने की संभावना देता है । आपका -th रूट की तरह दिखता है: । इसका क्या मतलब है? Cknpn(1p)knnkpx(1p)1xkx=n/k
थोड़ा विदेशी

40

अगर मेरे पास एक उचित सिक्का (पैरामीटर मान) है, तो संभावना है कि यह सिर आएगा 0.5। अगर मैं एक सिक्का 100 बार फ्लिप करता हूं और यह 52 बार सिर के ऊपर आता है, तो इसके निष्पक्ष होने की संभावना अधिक है (संभावित रूप से कई रूपों को लेने की संभावना का संख्यात्मक मूल्य)।


3
यह और जिप्सी का जवाब शीर्ष पर होना चाहिए! शुष्क गणितीय कठोरता के ऊपर अंतर्ज्ञान और स्पष्टता, कुछ अधिक अपमानजनक नहीं कहने के लिए।
नेमंजा राडोजकोविक्स

24

P(x|θ) को दो बिंदुओं से देखा जा सकता है:

  • एक समारोह के रूप में , / को ज्ञात / मनाया के रूप में माना जाता है। xθयदि एक यादृच्छिक चर, तो नहीं है (कहा जाता है पैरामिट्रीकृत ) की संभावना मॉडल मापदंडों दिया , जो कभी कभी भी रूप में लिखा है या । यदि एक यादृच्छिक चर है, जैसा कि बायेसियन आंकड़ों में है, तो एक सशर्त संभाव्यता है, जिसे रूप में परिभाषित किया गया है ।θP(x|θ)xθP(x;θ)Pθ(x)θP(x|θ)P(xθ)/P(θ)
  • एक समारोह के रूप में , रूप में मनाया का इलाज । θxउदाहरण के लिए, जब आप कोशिश एक निश्चित काम खोजने के लिए के लिए कि अधिकतम , तो कहा जाता है अधिकतम संभावना के दिए गए आंकड़ों , कभी-कभी रूप में लिखा जाता है । इसलिए, संभावना शब्द का उपयोग कुछ डेटा लिए प्रायिकता The को संदर्भित करने के लिए किया जाता है, जो विभिन्न मानों को (जैसे एक के रूप में खोज की जगह का पता लगाता है)θ^θP(x|θ)P(x|θ^)θxL(θ^|x)P(x|θ)xθθएक अच्छे समाधान के लिए )। तो, यह अक्सर एक उद्देश्य फ़ंक्शन के रूप में उपयोग किया जाता है, लेकिन बेसेबियन मॉडल की तुलना में दो मॉडल की तुलना करने के लिए एक प्रदर्शन उपाय के रूप में भी ।

अक्सर, यह अभिव्यक्ति अभी भी अपने दोनों तर्कों का एक फ़ंक्शन है, इसलिए यह जोर देने का विषय है।


दूसरे मामले के लिए, मुझे लगा कि लोग आमतौर पर P (थीटा | x) लिखते हैं।
युकीयन

मूल रूप से सहज रूप से मैंने पहले से ही सोचा था कि वे दोनों शब्दों को परिप्रेक्ष्य या प्राकृतिक भाषा निर्माण में अंतर के लिए समान हैं, इसलिए मुझे लगता है कि "क्या? मैं सभी के साथ सही था?" लेकिन अगर यह मामला है, तो उन्हें इतना महत्वपूर्ण क्यों बताया जा रहा है? अंग्रेजी मेरी मातृभाषा नहीं है, मैं दोनों शब्दों के लिए केवल एक शब्द के साथ बड़ा हुआ (या क्या मुझे कभी भी एक समस्या नहीं मिली है जहां मुझे शर्तों को भेद करने की आवश्यकता है?) और कभी नहीं पता था कि कोई अंतर था। यह केवल अब है, कि मैं दो अंग्रेजी शब्दों को जानता हूं, कि मैं इन चीजों के बारे में अपनी समझ पर संदेह करना शुरू कर देता हूं।
ज़ेल्फिर कल्टस्टाल

3
आपका जवाब बहुत ही हास्यप्रद लगता है और समझने में आसान है। मुझे आश्चर्य है, यह कुछ ही अपवित्र क्यों मिला।
जूलियन

4
ध्यान दें कि P (x। ) एक सशर्त प्रायिकता है केवल अगर एक यादृच्छिक चर है, अगर एक पैरामीटर है तो यह बस x की संभावना है जो कि द्वारा । θθθθ
मिरिके मिरनेंको

मुझे लगता है कि यह सभी के बीच सबसे अच्छा जवाब है
हारून

4

जहां तक ​​मेरा सवाल है, सबसे महत्वपूर्ण अंतर यह है कि संभावना एक संभावना (of ) नहीं है।θ

एक अनुमान समस्या में, एक्स दिया जाता है और संभावना है के बजाय एक्स का वितरण का वर्णन करता है । अर्थात्, निरर्थक है, क्योंकि संभावना एक का pdf नहीं है , हालांकि यह कुछ हद तक को विशेषता देता है ।P(X|θ)θP(X|θ)dθθθ


1
जैसा कि @Lenar Hoyt का उत्तर बताता है, अगर थीटा एक यादृच्छिक चर है (जो कि यह हो सकता है), तो संभावना एक संभावना है। तो असली जवाब लगता है कि संभावना एक संभावना हो सकती है, लेकिन कभी-कभी नहीं है।
माइक वाइज

@ माइक वाइज, मुझे लगता है कि थीटा को हमेशा "रैंडम" वैरिएबल के रूप में देखा जा सकता है, जबकि संभावना है कि यह सिर्फ इतना "रैंडम" नहीं है ...
रिस्पांस

4

क्या आप पायलट को टीवी श्रृंखला "अंक 3" के लिए जानते हैं जिसमें एफबीआई एक सीरियल अपराधी के घर के आधार का पता लगाने की कोशिश करता है जो यादृच्छिक पर अपने पीड़ितों को चुनने के लिए लगता है?

एफबीआई के गणितीय सलाहकार और एजेंट प्रभारी का भाई अधिकतम संभावना दृष्टिकोण के साथ समस्या को हल करता है। सबसे पहले, वह कुछ "गुग्गुप आकार का" संभावना the मानता है कि अपराध स्थान अगर अपराधी स्थान पर रहता है the । (गुगेलुफ़ धारणा यह है कि अपराधी अपने अगले पड़ोस में न तो कोई अपराध करेगा और न ही अपने अगले यादृच्छिक शिकार को चुनने के लिए बहुत दूर तक यात्रा करेगा।) यह मॉडल अलग-अलग लिए संभावनाओं का वर्णन करता है जिसे एक निश्चित दिया गया है । दूसरे शब्दों में, एक निश्चित पैरामीटर साथ का एक कार्य हैp(x|θ)xθxθpθ(x)=p(x|θ)xθ

बेशक, एफबीआई अपराधी के अधिवास को नहीं जानता है, और न ही वह अगले अपराध दृश्य की भविष्यवाणी करना चाहता है। (वे पहली बार आपराधिक मिलने की आशा है!) यह इसका उल्टा है, एफबीआई को पहले से ही जानता है अपराध दृश्यों की और अपराधी का अधिवास का पता लगाने के लिए करना चाहता ।xθ

इसलिए एफबीआई एजेंट की शानदार भाई कोशिश करते हैं और सबसे खोजने के लिए है की संभावना संभव सभी मूल्यों के बीच, यानी जो अधिकतम के लिए वास्तव में मनाया । इसलिए, वह अब को एक निश्चित पैरामीटर साथ कार्य के रूप में मानता है । लाक्षणिक रूप से बोल, वह अपने gugelhupf नक्शे पर चारों ओर shoves जब तक यह बेहतर "फिट बैठता है" ज्ञात अपराध दृश्यों की । एफबीआई तब गुगलफुप के केंद्र में दरवाजा खटखटाती है।θθp(x|θ)xlx(θ)=p(x|θ)θxxθ^

परिप्रेक्ष्य के इस बदलाव पर जोर देना, कहा जाता है संभावना की (समारोह) , जबकि था संभावना की (समारोह) । दोनों वास्तव में एक ही फ़ंक्शन लेकिन अलग-अलग दृष्टिकोण से देखा जाता है और क्रमशः और साथ अपनी भूमिकाओं को चर और पैरामीटर के रूप में बदलते हैं।lx(θ)θ पी θ ( एक्स ) एक्स पी ( एक्स | θ ) एक्स θθpθ(x)xp(x|θ)xθ

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.