कैसे दृढ़ता से संभावना को परिभाषित करने के लिए?


30

उदाहरण के लिए, संभावना को कई तरीकों से परिभाषित किया जा सकता है:

  • फ़ंक्शन से जो मैप्स से यानी ।LΘ×X(θ,x)L(θx)L:Θ×XR

  • यादृच्छिक समारोहL(X)

  • हम यह भी विचार कर सकते हैं कि संभावना केवल "मनाया गया" संभावनाL(xobs)

  • व्यवहार में, संभावना केवल एक गुणक स्थिरांक पर बारे में जानकारी लाती है, इसलिए हम एक फ़ंक्शन के बजाय कार्यों की एक समतुल्यता वर्ग के रूप में संभावना पर विचार कर सकते हैंθ

एक और सवाल तब होता है जब parametrization के परिवर्तन पर विचार: यदि नए parameterization हम आमतौर पर निरूपित कर रहा है पर संभावना और यह पिछले फंक्शन का मूल्यांकन नहीं है पर लेकिन । यह एक अपमानजनक लेकिन उपयोगी संकेतन है जिस पर जोर न देने पर शुरुआती लोगों के लिए मुश्किलें खड़ी हो सकती हैं।ϕ=θ2L(ϕx)ϕL(x)θ2ϕ

संभावना की आपकी पसंदीदा कठोर परिभाषा क्या है?

इसके अलावा आप को कैसे कहते हैं ? मैं आमतौर पर कुछ ऐसा ही कहता हूं " जब मनाया जाता है तो पर संभावना "।L(θx)θx

संपादित करें: नीचे कुछ टिप्पणियों के मद्देनजर, मुझे लगता है कि मुझे संदर्भ को प्राथमिकता देनी चाहिए थी। मैं एक पैरामीट्रिक परिवार द्वारा दिए गए सांख्यिकीय मॉडल पर विचार करता हूं , जिसमें कुछ दबंग माप के संबंध में घनत्व के कुछ थके हुए माप के संबंध में घनत्व की साथ, प्रत्येक प्रेक्षण स्थान पर परिभाषित किया गया । इसलिए हम the को परिभाषित करते हैं और सवाल " क्या है ?" (सवाल संभावना की सामान्य परिभाषा के बारे में नहीं है){f(θ),θΘ}f(θ)XL(θx)=f(xθ)L


2
(1) क्योंकि सभी के लिए , मेरा मानना ​​है कि में स्थिरांक भी परिभाषित है। (2) यदि आप मापदंडों के बारे में सोचते हैं जैसे कि केवल वितरण के कई गुना के लिए निर्देशांक होने के नाते और , तो पैरामीटर के परिवर्तन का कोई आंतरिक गणितीय अर्थ नहीं है; यह केवल विवरण का परिवर्तन है। (3) मूल अंग्रेजी बोलने वाले अधिक स्वाभाविक रूप से "ऑन" के बजाय " की संभावना" कहेंगे । (४) खंड "जब का अवलोकन किया जाता है" में दार्शनिक कठिनाइयाँ होती हैं, क्योंकि अधिकांश को कभी नहीं देखा जाएगा। क्यों नहीं बस " दी गई की संभावना" कहते हैंθ एल φ θ θ एक्स एक्स θ एक्सL(θ|x)dx=1θLϕθ θxxθx "?
whuber

1
@ वाउचर: (1) के लिए, मुझे नहीं लगता कि निरंतर अच्छी तरह से परिभाषित है। ईटी जेन्स की पुस्तक देखें जहां वह लिखते हैं: "यह संभावना नहीं है कि संभावना नहीं है क्योंकि इसका सामान्यीकरण मनमाना है।"
नील जी

3
आप सामान्य के दो प्रकार के भ्रमित होना दिखाई देते हैं, नील: Jaynes से अधिक एकीकरण से सामान्य करने के लिए बात कर रहे थे , नहीं । xθx
whuber

1
@ वाउचर: मुझे नहीं लगता कि क्रैमर-राव बाउंड के लिए स्केलिंग फैक्टर मायने रखेगा क्योंकि बदलते में लॉग-लाइक के लिए एक निरंतर राशि जुड़ती है, जो तब आंशिक व्युत्पन्न होने पर गायब हो जाती है। k
नील जी

1
मैं नील से सहमत हूं, मुझे ऐसा कोई एप्लिकेशन नहीं दिखाई देता है, जहां लगातार एक भूमिका निभाई जाए
स्टीफन लॉरेंट

जवाबों:


13

आपका तीसरा आइटम वह है जिसे मैंने कठोर परिभाषा के रूप में सबसे अधिक बार देखा है।

अन्य दिलचस्प भी हैं (+1)। विशेष रूप से पहले अपील कर रहा है, इस कठिनाई के साथ कि नमूना आकार (अभी तक) परिभाषित नहीं किया जा रहा है, "सेट" से परिभाषित करना कठिन है।

मेरे लिए, संभावना की बुनियादी अंतर्ज्ञान यह मॉडल + उसके मापदंडों का एक कार्य है, न कि यादृच्छिक चर का एक कार्य (शिक्षण उद्देश्यों के लिए एक महत्वपूर्ण बिंदु)। इसलिए मैं तीसरी परिभाषा पर टिकूंगा।

नोटेशन के दुरुपयोग का स्रोत यह है कि संभावना के "से" सेट निहित है, जो आमतौर पर अच्छी तरह से परिभाषित कार्यों के लिए नहीं है। यहां, सबसे कठोर दृष्टिकोण यह महसूस करना है कि परिवर्तन के बाद, संभावना दूसरे मॉडल से संबंधित है। यह पहले के बराबर है, लेकिन अभी भी एक और मॉडल है। तो संभावना संकेतन को यह दिखाना चाहिए कि वह किस मॉडल को (उपधारा या अन्य द्वारा) संदर्भित करता है। मैं इसे कभी नहीं करता, लेकिन शिक्षण के लिए, मैं कर सकता हूं।

अंत में, अपने पिछले उत्तरों के अनुरूप होने के लिए, मैं आपके अंतिम फॉर्मूले में " of the the " की बात कहता हूं ।θ


धन्यवाद। और बहुसांस्कृतिक स्थिरांक तक समानता के बारे में आपकी क्या सलाह है?
स्टीफन लॉरेंट

व्यक्तिगत रूप से मैं इसे कॉल करना पसंद करता हूं जब इसे परिभाषा में हार्ड कोड के बजाय आवश्यकता होती है। और सोचें कि मॉडल के चयन के लिए / तुलना इस 'अप-टू-द-गुणा-स्थिर' समानता नहीं रखती है।
गुई ११

ठीक है। नाम के संबंध में, आप कल्पना कर सकते आप likelihoods के बारे में चर्चा और एल ( θ | एक्स 2 ) दो possibles टिप्पणियों के लिए। इस तरह के एक मामले में, आप कह सकते हैं कि "की संभावना θ जब एक्स 1 मनाया", या "की संभावना θ अवलोकन के लिए एक्स 1 , या कुछ और?" L(θx1)L(θx2)θx1θx1
स्टीफन लॉरेंट

1
के साथ अपने मॉडल यदि आप पुनः parametrize आप वास्तव में कार्यों की संरचना के रूप में संभावना की गणना एल ( | एक्स ) जी ( ) जहां जी ( y ) = y 2 । इस मामले में, जी आर से आर + तक जाता है , इसलिए संभावना की परिभाषा का सेट ("सेट से" के रूप में उल्लेख किया गया) अब समान नहीं है। आप पहले फ़ंक्शन को L 1 कह सकते हैं ( ! | )ϕ=θ2L(.|x)g(.)g(y)=y2gRR+L1(.|)और दूसरा क्योंकि वे समान कार्य नहीं हैं। L2(.|)
गुई ११

1
तीसरी परिभाषा कैसे कठोर है? और नमूना आकार को परिभाषित नहीं किए जाने से क्या समस्या है? जब से हम कहते हैं कि है, जो स्वाभाविक रूप से अस्तित्व में नमूना स्थान के लिए एक इसी सिग्मा बीजगणित लाता Ω n , हम क्यों likelihoods के लिए समानांतर परिभाषा नहीं हो सकता? P(x1,x2,,xnθ)Ωn
नील जी

8

मुझे लगता है कि मैं इसे कुछ अलग कहूंगा। संभावना के लिए पैरामीटर का मान दिया मनाया एक्स प्रायिकता घनत्व है के एक समारोह के रूप में व्यक्त के लिए दिए गए । मैं आनुपातिकता स्थिरांक के बारे में दृष्टिकोण साझा नहीं करता हूं। मुझे लगता है कि क्योंकि संभावना के किसी भी monotonic समारोह अधिकतम करने के लिए एक ही समाधान देता है कि केवल खेलने में आता है । तो आप को या अन्य मोनोटोनिक कार्यों जैसे लिए अधिकतम कर सकते हैं जो आमतौर पर किया जाता है।θθxθcL(θx)c>0log(L(θx))


4
न केवल अधिकतमकरण: अप-टू-आनुपातिकता भी संभावना अनुपात धारणा में खेल में आती है, और बेयसियन आँकड़ों के लिए बेयस सूत्र में
स्टीफन लॉरेंट

मुझे लगा कि कोई मेरे उत्तर को अस्वीकार कर सकता है। लेकिन मुझे लगता है कि इस तरह से संभावना को परिभाषित करना काफी उचित है, क्योंकि यह एक समान संभावना के लिए कुछ भी कहे बिना निश्चित संभावना के रूप में है। @ StéphaneLaurent पुजारियों के बारे में आपकी टिप्पणी, यदि फ़ंक्शन पूर्णांक है, तो इसे एक घनत्व के लिए सामान्य किया जा सकता है। पूर्ववर्ती समय पूर्व की संभावना के अनुपात में है। चूँकि पीछे के भाग को एक अभिन्न द्वारा विभाजित करके सामान्य किया जाना चाहिए क्योंकि हम वितरण को पूर्व निर्दिष्ट कर सकते हैं। यह केवल एक विस्तारित अर्थ में है कि यह अनुचित पुजारियों पर लागू होता है।
माइकल आर। चेरिक

1
मुझे पूरा यकीन नहीं है कि कोई इस उत्तर को अस्वीकार करेगा । ऐसा लगता है कि आप ओपी के दूसरे और पहले की तुलना में सवालों के जवाब देने की कोशिश कर रहे हैं। शायद यह अन्य पाठकों के लिए पूरी तरह से स्पष्ट नहीं था। चीयर्स। :)
कार्डिनल

@ मिचेल मुझे इस उत्तर को भी अस्वीकार करने की आवश्यकता नहीं है। गैर-सूचनात्मक पादरियों के बारे में (यह एक और चर्चा है) और मैं इस विषय के बारे में एक नया दृष्टिकोण खोलने का इरादा रखता हूं। मैं इसे जल्द नहीं करूंगा, क्योंकि मैं अंग्रेजी के साथ आसान नहीं हूं, और मेरे लिए गणित की तुलना में "दर्शन" लिखना अधिक कठिन है।
स्टीफन लॉरेंट

1
@ स्टीफन: यदि आप चाहें, तो कृपया अपने अन्य प्रश्न सीधे फ्रेंच में पोस्ट करने पर विचार करें। हमारे पास इस साइट पर कई मूल फ्रांसीसी बोलने वाले हैं जो संभवतः किसी भी मार्ग का अनुवाद करने में आपकी मदद करेंगे जिनके बारे में आप अनिश्चित हैं। इसमें एक मॉडरेटर भी शामिल है और बहुत ही शीर्ष अंग्रेजी भाषा की सांख्यिकी पत्रिकाओं में से एक का संपादक भी है। मैं सवाल का इंतजार कर रहा हूं।
कार्डिनल

6

यहाँ एक कठोर गणितीय परिभाषा का प्रयास किया गया है:

चलो एक यादृच्छिक वेक्टर जो एक घनत्व मानते हो कुछ उपाय के संबंध में पर है, जहां के लिए , पर संबंध में घनत्व का एक परिवार है । फिर, किसी भी हम संभावना फ़ंक्शन को होने के लिए परिभाषित करते हैं । स्पष्टता के लिए, प्रत्येक हमारे पास । कोई को एक विशेष क्षमता के बारे में सोच सकता हैX:ΩRnf(x|θ0)νRnθΘ{f(x|θ):θΘ}RnνxRnL(θ|x)f(x|θ)xLx:ΘRxxobs और को का "सही" मान होना चाहिए ।θ0θ

इस परिभाषा के बारे में टिप्पणियों की एक जोड़ी:

  1. लिए वितरण के परिवारों को असतत, निरंतर और अन्य प्रकार के परिवारों को संभालने के लिए परिभाषा काफी मजबूत है ।X
  2. हम संभावना वितरण / उपायों के स्तर के बजाय घनत्व कार्यों के स्तर पर संभावना को परिभाषित कर रहे हैं। इसका कारण यह है कि घनत्व अद्वितीय नहीं हैं, और यह पता चला है कि यह एक ऐसी स्थिति नहीं है जहां कोई घनत्व के समकक्ष वर्गों में पास हो सकता है और अभी भी सुरक्षित हो सकता है: घनत्व के विभिन्न विकल्पों से MLE के निरंतर मामले में अलग होता है। हालांकि, ज्यादातर मामलों में घनत्व के परिवार का एक स्वाभाविक विकल्प है जो सैद्धांतिक रूप से वांछनीय हैं।
  3. मुझे यह परिभाषा पसंद है क्योंकि यह हमारे साथ काम कर रहे यादृच्छिक चर को शामिल करता है और डिजाइन द्वारा, चूंकि हमें उन्हें एक वितरण आवंटित करना है, हमने " के" सही लेकिन अज्ञात "मूल्य की धारणा में भी कठोरता से बनाया है , यहां निरूपित । मेरे लिए, एक छात्र के रूप में, संभावना के बारे में कठोर होने की चुनौती हमेशा यह थी कि गणित के साथ "सत्य" " " और "मनाया" की वास्तविक दुनिया की अवधारणाओं को कैसे ; यह अक्सर प्रशिक्षकों द्वारा यह दावा करने में मदद नहीं किया गया था कि ये अवधारणाएं औपचारिक नहीं थीं, लेकिन फिर चीजों को साबित करते समय उन्हें घुमाकर और औपचारिक रूप से उनका उपयोग किया गया! इसलिए हम औपचारिक रूप से इस परिभाषा में उनके साथ व्यवहार करते हैं।θθ0θxobs
  4. संपादित करें: बेशक, हम सामान्य यादृच्छिक तत्वों , और पर विचार करने के लिए स्वतंत्र हैं और इस परिभाषा के तहत कठोरता के साथ कोई वास्तविक समस्या नहीं है। जब तक आप सावधान हैं (या यहां तक ​​कि अगर आप नहीं हैं अगर उस स्तर की कठोरता आपके लिए महत्वपूर्ण नहीं है)।L(θ|X)S(θ|X)I(θ|X)

4
@ शीआन Let पर समान हो । दो घनत्वों पर विचार करें बनाम । और दोनों लिए वैध घनत्व हैं , लेकिन के अंतर्गत MLE मौजूद है और बराबर है, जबकि अंतर्गत हमारे पास है | अगर आप सेट करते हैं तो आप संभावना के साथ समाप्त हो , और वास्तव में MLE मौजूद नहीं है क्योंकिX1,...,Xn(0,θ)f1(x)=θ1I[0<x<θ]f2(x)=θ1I[0xθ]f1f2U(0,θ)f2maxXif1jf1(xj|maxxi)=0θ^=maxXi0supθjf1(x|θ) किसी भी लिए प्राप्त नहीं होती है । θ
आदमी

1
@ गुड्डी: धन्यवाद, मुझे इस दिलचस्प काउंटर-उदाहरण के बारे में नहीं पता था।
शीआन

1
@guy आपने कहा कि किसी भी लिए प्राप्त नहीं हुआ है । हालाँकि, यह किसी बिंदु पर प्राप्त होता है, जैसा कि मैं नीचे दिखाता हूं: जहां । मैं मान रहा हूं कि सभी । यह देखना आसान है कि 1. , यदि ; 2. , यदि । जारी है ...supθjf1(xj|θ)θ
L1(θ;x)=j=1nf1(xj|θ)=θnj=1nI(0<xj<θ)=θnI(0<M<θ),
M=max{x1,,xn}xj>0j=1,,nL1(θ;x)=00<θML1(θ;x)=θnM<θ<
एलेक्जेंड्रे पैट्रियोटा

1
@guy: जारी ... वह है, सभी के लिए । हमारे पास अधिकतम मूल्य नहीं है, लेकिन वर्चस्व मौजूद है और यह और तर्क शायद, यहां आमतौर पर एसिम्पोटिक्स लागू नहीं होते हैं और कुछ अन्य टोलों को नियोजित किया जाना चाहिए। लेकिन, का मौजूद है या मैंने कुछ बहुत बुनियादी अवधारणाओं को याद किया।
L1(θ;x)[0,Mn),
θ(0,)
supθ(0,)L1(θ,x)=Mn
M=argsupθ(0,)L1(θ;x).
L1(θ;x)
अलेक्जेंड्रे पैट्रियोटा

1
@AlexandrePatriota वर्चस्व मौजूद है, जाहिर है, लेकिन यह फ़ंक्शन द्वारा प्राप्त नहीं किया गया है। मुझे यकीन नहीं है कि संकेतन का क्या अर्थ है - का कोई तर्क नहीं है, जो कि कारण पैदावार देता है । MLE को किसी भी रूप में परिभाषित किया गया है, जो (आमतौर पर) को प्राप्त करता है और no यहाँ प्राप्त करता है। जाहिर है इसके चारों ओर तरीके हैं - asymptotics हम यह अपेक्षा करने के लिए वहाँ है कि अपील मौजूद है इस तरह के और इस तरह के गुणों के साथ एक संभावना है, और वहाँ है। यह केवल बजाय ।argsupL1(θ;x)supL1(θ;M)=0θ^supθ^supL2L1
आदमी
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.