जेफ्रीज़ पूर्व उपयोगी क्यों है?


61

मैं समझता हूं कि जेफ्री के पूर्व पुन: पैरामीटर के तहत अपरिवर्तनीय है। हालाँकि, मुझे समझ में नहीं आता है कि यह संपत्ति क्यों वांछित है।

आप चर के परिवर्तन से पहले परिवर्तन क्यों नहीं करना चाहेंगे?


जवाबों:


30

मुझे ज़ेन का जवाब पूरा करने दो। मुझे "अज्ञानता का प्रतिनिधित्व करने" की धारणा पसंद नहीं है। महत्वपूर्ण बात जेफरीज़ से पहले नहीं है लेकिन जेफ्रीस पीछे है । इस पीछे का लक्ष्य डेटा द्वारा लाए गए मापदंडों की जानकारी को यथासंभव सर्वोत्तम रूप से दर्शाना है। निम्न दो बिंदुओं के लिए स्वाभाविक रूप से आवश्यक है। उदाहरण के लिए अज्ञात अनुपात पैरामीटर और ऑड्स पैरामीटर the साथ द्विपद मॉडल पर विचार करें ।ψ = θθψ=θ1θ

  1. डेटा द्वारा लाई गई बारे में जानकारी जितनी संभव हो उतनी अच्छी तरह से दिखाई देने वाली जेफरी पीछे है । और बीच एक-से-एक पत्राचार है । फिर, पर जेफ्रेय्स पीछे बदलने पर पीछे में (सामान्य परिवर्तन के- चर सूत्र के माध्यम से) एक वितरण संभव के रूप में सबसे अच्छा के रूप में के बारे में जानकारी को दर्शाती उपज चाहिए । इस प्रकार इस वितरण के बारे में जेफ्रेय्स पीछे होना चाहिए । यह आक्रमणकारी संपत्ति है।θ θ ψ θ ψ ψ ψθθθψθψψψ

  2. एक महत्वपूर्ण बिंदु जब एक सांख्यिकीय विश्लेषण के निष्कर्ष निकालना वैज्ञानिक संचार है । कल्पना कीजिए कि आप को एक वैज्ञानिक सहकर्मी को थिएटर्स दे देते हैं । लेकिन वह / वह बजाय में रुचि रखता है । तब यह अजेय संपत्ति के साथ कोई समस्या नहीं है: उसे / उसे सिर्फ परिवर्तन के चर सूत्र को लागू करना होगा।ψ θθψθ


आह यह बातें थोड़ी साफ करता है। लेकिन क्या एक सहज रूप से अच्छा कारण है कि अनुपात पैरामीटर के लिए पीछे का अनुपात अनुपात पैरामीटर के लिए पीछे के समान होना चाहिए? यह मेरे लिए अप्राकृतिक लगता है।
tskuzzy

ये एक जैसे नहीं हैं ! एक परिवर्तनशील सूत्र द्वारा दूसरे से प्रेरित है। दो मापदंडों के बीच एक-से-एक पत्राचार है। फिर इन मापदंडों में से एक पर पीछे का वितरण दूसरे पर पीछे के वितरण को प्रेरित करना चाहिए।
स्टीफन लॉरेंट

2
(+1) स्टीफन। जब वह कहता है कि ओपी अब भी भ्रमित हो रहा है "... वही होना चाहिए ..."। दो डाकिया "समान" नहीं हैं, ऐसा क्या होता है, उदाहरण के लिए, स्टीफन के उदाहरण में, आपके पास वह ; यदि आपके पास डिफॉल्ट्स (कंप्यूटेड) पादरियों का उपयोग करते हुए इस तरह की निरंतरता नहीं है, तो आपके पुजारी थोड़े से पोषक होते हैं। P{1/3θ2/3X=x}=P{1/2ψ2X=x}
ज़ेन

1
मुझे लगता है कि इस पोस्ट से जो गायब है वह यह है कि जब किसी पैरामीटर के बारे में डेटा में बहुत अधिक जानकारी होती है, तो विशेष रूप से इस्तेमाल किया जाने वाला कोई फर्क नहीं पड़ता। उदाहरण के लिए, एक द्विपद अनुपात, चाहे हम एक समान, जेफ्री या हेल्डेन का उपयोग करते हैं, तब तक बहुत कम अंतर होता है जब तक कि पोस्टीरियर बहुत व्यापक नहीं होता है। इस मामले में इसका थोड़ा सा शैक्षणिक तर्क है जिसके लिए पहले "सही" है क्योंकि किसी भी तरह से कोई सार्थक निष्कर्ष नहीं निकाला जा सकता है। एक गैर-सूचनात्मक पूर्व का वास्तविक मूल्य कई आयामों में है, लेकिन यह समस्या हल नहीं हुई है - जेफ्रीज़ पूर्व से यहां खराब है।
probabilityislogic

3
यह सिद्धांत अधूरा है और पैरामीटर ऑर्डरिंग, कॉम्पैक्ट क्षेत्र की पसंद और संभावना फ़ंक्शन पर निर्भर करता है। इसलिए यह उदाहरण के लिए संभावना सिद्धांत का पालन नहीं करता है। इसके अलावा, गैर-स्वतंत्र डेटा पर लागू करना मुश्किल है। इसके अलावा, बर्नार्डो का सिद्धांत केवल 1-डी पैरामीटर समस्याओं के लिए पूर्ण है। यह शायद वर्तमान में उपलब्ध सर्वोत्तम विधि है। एक अच्छा प्रतियोगी जेन्स का परिवर्तन समूह दृष्टिकोण है।
प्रायिकतालोगिक

41

मान लीजिए कि आप और एक मित्र एक सामान्य मॉडल का उपयोग करके डेटा के एक ही सेट का विश्लेषण कर रहे हैं। आप माध्य और विचरण को मापदंडों के रूप में उपयोग करते हुए सामान्य मॉडल के सामान्य पैरामीटर को अपनाते हैं, लेकिन आपका दोस्त सामान्य मॉडल को भिन्नता के गुणांक और मापदंडों के रूप में सटीक (जो कि पूरी तरह से "कानूनी") के रूप में पैरामीटर बनाना पसंद करता है। यदि आप दोनों जेफ्रीज़ के पुजारियों का उपयोग करते हैं, तो आपका पोस्टीरियर डिस्ट्रीब्यूशन आपके दोस्त के पोस्टीरियर डिस्ट्रीब्यूशन को ठीक से उसके पैरामीटराइजेशन से आपके लिए बदल देगा। यह इस अर्थ में है कि जेफ्रीज़ का पूर्व "अदृश्य" है

(वैसे, "इनवेरिएंट" एक भयानक शब्द है; जिसका हम वास्तव में मतलब यह है कि यह "कोवरिएन्ट" है, उसी अर्थ में टेंसर कैलकुलस / डिफरेंशियल ज्योमेट्री के समान है, लेकिन, निश्चित रूप से, इस शब्द का पहले से ही एक स्थापित काबिल अर्थ है।) इसलिए हम इसका इस्तेमाल नहीं कर सकते।)

यह संगति संपत्ति क्यों वांछित है? क्योंकि, अगर जेफ्रीज़ के पूर्व में किसी निरपेक्ष अर्थ में मापदंडों के मूल्य के बारे में अज्ञानता का प्रतिनिधित्व करने का कोई मौका है (वास्तव में, यह नहीं है, लेकिन अन्य कारणों से "अदर्शन" से संबंधित नहीं है), और किसी विशेष पैरामीटर के लिए अज्ञानता अपेक्षाकृत नहीं है मॉडल के अनुसार, ऐसा होना चाहिए कि, कोई फर्क नहीं पड़ता कि हम किन मापदंडों के साथ मनमाने ढंग से शुरू करना चाहते हैं, हमारे पोस्टर्स को परिवर्तन के बाद "मैच" करना चाहिए।

अपने पुरोहितों का निर्माण करते समय जेफ़रीज़ ने स्वयं इस "इनवेरियन" संपत्ति का उल्लंघन किया।

इस पत्र में इस और संबंधित विषयों के बारे में कुछ दिलचस्प चर्चाएं हैं।


1
+1: अच्छा जवाब। लेकिन, जेफ्री के पूर्व मापदंडों के मूल्य के बारे में अज्ञानता का प्रतिनिधित्व क्यों नहीं करता है?
नील जी

4
क्योंकि यह वितरण भी नहीं है। यह दावा करने के लिए विरोधाभास है कि वितरण अज्ञानता को दर्शाता है। एक वितरण हमेशा जानकारी को दर्शाता है।
स्टीफन लॉरेंट

2
एक अन्य संदर्भ: projecteuclid.org/…
स्टीफन लॉरेंट

@ स्टेफेनलौरेंट: कुल अज्ञान की स्थिति में भी किसी को कुछ विश्वास होना चाहिए । जो कुछ भी आपके माइनस में है जो भी आपके डेटा से प्रेरित है वह विश्वास है जो आप उस अज्ञान की स्थिति में मान रहे हैं। उस विश्वास को तय करते समय जो सहज सिद्धांत का सम्मान किया जाना चाहिए, वह यह है कि यह लेबल के परिवर्तन के तहत अपरिवर्तनीय होना चाहिए (पुनर्संरचना सहित)। मुझे यकीन नहीं है, लेकिन मुझे लगता है कि सिद्धांत अकेले (अपनी सभी संभावित व्याख्याओं में - अधिकतम एन्ट्रापी, अपरिवर्तनीय पुनर्मूल्यांकन, आदि) हमेशा विश्वास का फैसला करता है।
नील जी

इसलिए, जब कोई कहता है "एक वितरण अज्ञानता को दर्शाता है", तो इसका अर्थ है कि वितरण इस सिद्धांत के साथ है।
नील जी

12

ज़ेन के महान उत्तर के लिए कुछ उद्धरण जोड़ने के लिए: जेनेस के अनुसार, जेफ्रीज़ पहले परिवर्तन समूहों के सिद्धांत का एक उदाहरण है, जिसके परिणामस्वरूप उदासीनता के सिद्धांत का परिणाम है:

सिद्धांत का सार बस है: (1) हम मानते हैं कि एक संभावना असाइनमेंट एक निश्चित राज्य i ज्ञान का वर्णन करने का एक साधन है। (२) यदि उपलब्ध साक्ष्य हमें की तुलना में या तो अधिक या कम संभावना पर विचार करने का कोई कारण नहीं , तो एकमात्र ईमानदार-तरीका जिससे हम यह वर्णन कर सकते हैं कि ज्ञान की स्थिति उन्हें समान संभावनाएं प्रदान करने के लिए है: । कोई भी अन्य प्रक्रिया इस अर्थ में असंगत होगी कि, लेबल मात्र इंटरचेंज द्वारा हम फिर एक नई समस्या उत्पन्न कर सकते हैं जिसमें हमारे ज्ञान की स्थिति एक ही है लेकिन हम अलग-अलग संभावनाएं बता रहे हैं ...पी = पी ( , )A1A2p1=p2(1,2)

अब, आपके प्रश्न का उत्तर देने के लिए: "आप परिवर्तन के पूर्व परिवर्तन क्यों नहीं करना चाहेंगे?"

जेन्स के अनुसार, पैरामीरिजेशन एक अन्य प्रकार का मनमाना लेबल है, और किसी को "लेबल के मात्र इंटरचेंज द्वारा" सक्षम नहीं होना चाहिए, जिससे एक नई समस्या उत्पन्न होती है जिसमें हमारे ज्ञान की स्थिति एक ही होती है, लेकिन हम अलग-अलग योग्यता प्रदान कर रहे हैं। "


2
जेनेस मुझे कुछ रहस्यवादी लगता है।
स्टीफन लॉरेंट


2
जियान ने जयन्स की प्रशंसा करते हुए एक मेल प्राप्त किया: cermade.dauphine.fr/~xian/critic.html यह एक अफ़सोस की बात है अगर आप फ्रेंच नहीं पढ़ते हैं, तो यह मेल भयावह और मज़ेदार दोनों है। लगता है कि लेखक बेज़ियन आँकड़ों के बारे में बहुत अधिक सोचकर पागल हो गया है;)
स्टीफन लॉरेंट

1
@ StéphaneLaurent: अब इसे पढ़ना। यह बिल्कुल सही है: "si vous affirmez en page 508" अधिकांश प्रयोगों की गैर-उपयुक्तता "à quoi bon ensuite" इष्टतम सामंतवादी प्रक्रियाओं की तलाश में "en पृष्ठ 512? Si la plupart des probuèmes ne peuvent donc pas être traités par leséédéréesistes? टिप्पणी ले "choix बेयसिएन", क्यूई से वीट être le paradigme pour tout problème inférentiel, n'est-ce pas, peut-il se baser sur une reconciliation avec le fréquentisme (p। 517-518); पूवरक्वेई नेसुकोइ। टाउट क्वीन प्रोबेबिलिटी एन'स्ट जेमिस यूनी फ्रेक्वेंस! "
नील जी

1
इसके अलावा: "ले प्रिंसिपे ड्यू मैक्स डी'एंट्रोपी एस्ट लुइ फोल्लुमेंट फेन्डामेंटल आइंटेंट डोनने क्वील एस्ट नीसेयर एट प्रत्यय रेज़लर सीस कैस डी एटैक एट पैरा कंसेंटेंट आईएल प्रेशर कैन सीज़ कैस ला सिग्लीफिकेशन वीएप्रिटेबल डेस प्रोबैबिलिटीस एक पूर्व। qu'il permet ensuite d'unifier Théorie de l'Information, Mécanique Statistique, Thermodynamique ... "मेरी स्थिति के बारे में भी बताता है। हालाँकि, लेखक के विपरीत मुझे दूसरों को यह मानने में घंटों की दिलचस्पी नहीं है कि मुझे क्या स्वाभाविक लगता है।
नील जी

4

अक्सर ब्याज के रूप में, यदि केवल एक संदर्भ सेट करने के लिए जिसके खिलाफ अन्य पुजारियों को गेज करने के लिए, जेफ़रीज़ के पुजारी उदाहरण के लिए पूरी तरह से बेकार हो सकते हैं जब वे अनुचित पोस्टेरियर्स का नेतृत्व करते हैं: यह उदाहरण के लिए साधारण दो-घटक विस्मृति मिश्रण साथ मामला है। अज्ञात सभी मापदंडों के साथ। इस मामले में, पूर्व में जेफ्रीज़ के पीछे का कोई अस्तित्व नहीं है, चाहे कितनी भी टिप्पणियां उपलब्ध हों। (प्रमाण क्लारा ग्राज़ियन के साथ मेरे द्वारा लिखे गए एक हालिया पेपर में उपलब्ध है ।)

pN(μ0,σ02)+(1p)N(μ1,σ12)

-1

जेफ्रीज़ पूर्व बेकार है । यह है क्योंकि:

  1. यह सिर्फ वितरण के रूप को निर्दिष्ट करता है; यह आपको यह नहीं बताता कि इसके पैरामीटर क्या होने चाहिए।
  2. आप कभी भी पूरी तरह से अनभिज्ञ नहीं होते हैं - आपके द्वारा ज्ञात पैरामीटर के बारे में हमेशा कुछ होता है (उदाहरण के लिए अक्सर यह अनंत नहीं हो सकता है)। पूर्व वितरण को परिभाषित करके अपने अनुमान के लिए इसका उपयोग करें। अपने आप से यह मत कहना कि तुम कुछ नहीं जानते हो।
  3. "परिवर्तन के तहत अविवेकी" एक वांछनीय संपत्ति नहीं है। परिवर्तन के तहत आपकी संभावना बदल जाती है (उदाहरण के लिए जैकोबियन)। यह "नई समस्याएँ" पैदा नहीं करता है, जेन्स की गति । पूर्व को क्यों नहीं माना जाना चाहिए?

बस इसका उपयोग न करें।


1
एह? संभावना एक घनत्व नहीं है और नीचे reparametrization परिवर्तन नहीं होगा
Innisfree
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.