विभिन्न स्रोतों से संभावनाओं / सूचनाओं को मिलाना


26

आइए बताते हैं कि मेरे पास तीन स्वतंत्र स्रोत हैं और उनमें से प्रत्येक कल के मौसम के लिए भविष्यवाणियां करता है। पहला व्यक्ति कहता है कि कल बारिश की संभावना 0 है, फिर दूसरा कहता है कि संभावना 1 है, और अंत में अंतिम कहता है कि संभावना 50% है। मैं उस जानकारी को दी गई कुल संभावना को जानना चाहूंगा।

यदि मुझे स्वतंत्र आय 0 के लिए गुणन प्रमेय लागू करें, जो सही नहीं लगता है। यदि सभी स्रोत स्वतंत्र हैं, तो तीनों को गुणा करना क्यों संभव नहीं है? क्या मुझे अद्यतन करने के लिए कुछ बायेसियन तरीका है क्योंकि मुझे नई जानकारी मिलती है?

नोट: यह होमवर्क नहीं है, कुछ ऐसा है जिसके बारे में मैं सोच रहा था।


1
क्या आप जानते हैं कि स्वतंत्र स्रोत कितने विश्वसनीय हैं
दिलीप सरवटे

नहीं, एक प्राथमिकता मैं यह मानूंगा कि सभी स्रोत समान रूप से विश्वसनीय हैं।
बिआला दीला

3
यह एक अच्छा सवाल है जिसके बारे में मैं भी सोच रहा हूं। मैं दूसरा प्रश्न जोड़ूंगा: यदि सभी पूर्वानुमान 0.75 थे, तो संयुक्त संभावना क्या होगी? 0.75 से अधिक है? इस तरह के प्रश्नों के विश्लेषण के लिए एक औपचारिक ढांचा क्या होगा?
कार्स्टन डब्ल्यू।

2
वास्तव में पर्याप्त जानकारी नहीं है; हमें वास्तविकता के संबंध में भविष्यवाणियों की अपेक्षा के कुछ मॉडल की आवश्यकता है।
Glen_b -Reinstate मोनिका

मुझे यकीन नहीं है कि "सभी स्रोत समान रूप से विश्वसनीय हैं" से क्या मतलब है जब स्रोत संभावना या विश्वास / विश्वास के स्तर के बारे में बयान देते हैं। अगर हम प्रायिकता-समस्याओं के समाधान के बारे में बात कर रहे हैं, तो यह एक वैचारिक समस्या है। BTW, यदि स्रोत 1 और 2 समान रूप से विश्वसनीय हैं, तो वे दोनों ही संभावना 0.50 ... (और बारिश की संभावना 1/2) के साथ सही होने चाहिए।
एजी

जवाबों:


32

आप तीन चीजों के बारे में पूछते हैं: (ए) एकल पूर्वानुमान प्राप्त करने के लिए कई पूर्वानुमानों को कैसे संयोजित किया जाए, (बी) यदि बायेसियन दृष्टिकोण का उपयोग यहां किया जा सकता है, और (सी) शून्य-संभावनाओं से कैसे निपटें।

पूर्वानुमान का मेल, एक आम बात है । यदि आपके पास कई पूर्वानुमान हैं तो यदि आप उन पूर्वानुमानों का औसत लेते हैं तो परिणामी संयुक्त पूर्वानुमान सटीकता की दृष्टि से किसी भी व्यक्ति की तुलना में बेहतर होना चाहिए। उन्हें औसत करने के लिए आप भारित औसत का उपयोग कर सकते हैं जहां वजन उलटा त्रुटियों (यानी सटीक), या सूचना सामग्री पर आधारित होता है । यदि आपको प्रत्येक स्रोत की विश्वसनीयता पर ज्ञान था, तो आप ऐसे भार को असाइन कर सकते थे जो प्रत्येक स्रोत की विश्वसनीयता के समानुपाती हों, इसलिए अधिक विश्वसनीय स्रोतों का अंतिम संयुक्त पूर्वानुमान पर अधिक प्रभाव पड़ता है। आपके मामले में आपको उनकी विश्वसनीयता के बारे में कोई जानकारी नहीं है, इसलिए प्रत्येक पूर्वानुमान का वजन समान है और इसलिए आप तीन पूर्वानुमानों के सरल अंकगणितीय माध्य का उपयोग कर सकते हैं।

0%×.33+50%×.33+100%×.33=(0%+50%+100%)/3=50%

जैसा कि @AndyW और @ArthurB द्वारा टिप्पणियों में सुझाया गया था , अन्य तरीकों के अलावा सरल भारित मतलब उपलब्ध हैं। विशेषज्ञ पूर्वानुमानों के बारे में साहित्य में कई ऐसे तरीके वर्णित हैं, जिनसे मैं पहले परिचित नहीं था, इसलिए धन्यवाद दोस्तों। औसत विशेषज्ञ पूर्वानुमान में कभी-कभी हम इस तथ्य के लिए सही करना चाहते हैं कि विशेषज्ञ मीन (बैरन एट अल, 2013) को पुनः प्राप्त करते हैं, या अपने पूर्वानुमान को और अधिक चरम बनाते हैं (एरेली एट अल, 2000; एरेव एट अल, 1994)। इसे प्राप्त करने के लिए व्यक्ति पूर्वानुमान परिवर्तन का उपयोग कर सकता है , जैसे लॉग फ़ंक्शनpi

(1)logit(pi)=log(pi1pi)

करने के लिए बाधाओं मई की शक्तिa

(2)g(pi)=(pi1pi)a

जहाँ , या अधिक सामान्य रूप परिवर्तन0<a<1

(3)टी(पीमैं)=पीमैंपीमैं+(1-पीमैं)

यदि कोई परिवर्तन लागू नहीं किया जाता है, तो अगर व्यक्तिगत पूर्वानुमान को और अधिक चरम बना दिया जाता है, यदि पूर्वानुमान कम चरम बना दिया जाता है, तो नीचे दी गई तस्वीर पर क्या दिखाया गया है (कर्मकार, 1978 देखें; बैरन एट अल, 2013; )।a > 1 0 < a < 1 है=1>10<<1

यहाँ छवि विवरण दर्ज करें

इस तरह के परिवर्तन के पूर्वानुमान के बाद औसतन (अंकगणितीय माध्य, माध्यिका, भारित माध्य या अन्य विधि का उपयोग करके) किया जाता है। तो समीकरण (1) या (2) थे इस्तेमाल किया परिणामों के लिए (1) उलटा logit का उपयोग करने और उलटा बैक तब्दील किया जा करने की जरूरत है बाधाओं (2) के लिए। वैकल्पिक रूप से, ज्यामितीय माध्य का उपयोग किया जा सकता है (Genest and Zidek, 1986; cf. Dietrich and List, 2014)

(4)पी^=Πमैं=1एनपीमैंwमैंΠमैं=1एनपीमैंwमैं+Πमैं=1एन(1-पीमैं)wमैं

या सतोपा एट अल (2014) द्वारा प्रस्तावित दृष्टिकोण

(5)पी^=[Πमैं=1एन(पीमैं1-पीमैं)wमैं]1+[Πमैं=1एन(पीमैं1-पीमैं)wमैं]

जहां वजन हैं। ज्यादातर मामलों में बराबर वजन का उपयोग तब तक किया जाता है जब तक कि अन्य पसंद का सुझाव देने वाली प्राथमिक जानकारी मौजूद न हो। इस तरह के तरीकों का उपयोग औसत पूर्वानुमान के लिए किया जाता है ताकि अंडर-कॉन्फिडेंस के लिए सही किया जा सके। अन्य मामलों में आपको विचार करना चाहिए कि पूर्वानुमानों को अधिक या कम चरम पर बदलना उचित है क्योंकि इससे कुल अनुमान सबसे कम और सबसे बड़े व्यक्तिगत पूर्वानुमान द्वारा चिह्नित सीमाओं से बाहर हो सकता है।डब्ल्यू मैं = 1 / एनwमैंwमैं=1/एन

यदि आपको बारिश की संभावना के बारे में पूर्व सूचना है तो आप बेयस प्रमेय को पूर्वानुमानों को अद्यतन करने के लिए लागू कर सकते हैं जो कि इसी तरह से बारिश की एक प्राथमिक संभावना बताई गई है । एक सरल तरीका भी है जिसे लागू किया जा सकता है, अर्थात अपने पूर्वानुमानों के भारित औसत की गणना करें (जैसा कि ऊपर वर्णित है) जहां पूर्व संभाव्यता को कुछ डेटा बिंदुओं के साथ अतिरिक्त डेटा बिंदु के रूप में व्यवहार किया जाता है w_ इस IMDB उदाहरण के रूप में ( स्रोत भी देखें , या यहाँ और यहाँ चर्चा के लिए; cf. Genest and Schervish, 1985), यानी π w πपीमैंπwπ

(6)पी^=(Σमैं=1एनपीमैंwमैं)+πwπ(Σमैं=1एनwमैं)+wπ

अपने प्रश्न से लेकिन यह पालन नहीं करता आप किसी भी है कि एक प्रायोरी आपकी समस्या तो आप शायद का प्रयोग करेंगे वर्दी पहले, यानी मान के बारे में ज्ञान एक प्रायोरी बारिश की संभावना और यह वास्तव में उदाहरण के मामले आपके द्वारा प्रदत्त में ज्यादा परिवर्तन नहीं करता है ।50%

शून्य से निपटने के लिए, कई अलग-अलग दृष्टिकोण संभव हैं। पहले आपको ध्यान देना चाहिए कि बारिश का मौका वास्तव में विश्वसनीय मूल्य नहीं है, क्योंकि यह कहता है कि यह असंभव है कि बारिश होगी। इसी तरह की समस्याएं अक्सर प्राकृतिक भाषा प्रसंस्करण में होती हैं जब आपके डेटा में आप कुछ मूल्यों का पालन नहीं करते हैं जो संभवतः हो सकते हैं (जैसे आप अक्षरों की आवृत्तियों को गिनते हैं और आपके डेटा में कुछ असामान्य अक्षर बिल्कुल नहीं होते हैं)। इस मामले में संभावना के लिए शास्त्रीय अनुमानक, यानी0%

पीमैं=nमैंΣमैंnमैं

जहाँ वें मान के घटित होने की संख्या है ( श्रेणियों में से), आपको देता है यदि । इसे शून्य-आवृत्ति समस्या कहा जाता है । ऐसे मूल्यों के लिए आप जानते हैं कि उनकी संभावना नॉनजरो (वे मौजूद हैं!), इसलिए यह अनुमान स्पष्ट रूप से गलत है। एक व्यावहारिक चिंता यह भी है: शून्य से गुणा करने और विभाजित करने से शून्य या अपरिभाषित परिणाम होते हैं, इसलिए शून्य से निपटने में समस्या होती है। i d p i = 0 n i = 0nमैंमैंपीमैं=0nमैं=0

आसान और सामान्य रूप से लागू किया गया फिक्स है, अपनी गिनती में कुछ निरंतर जोड़ना , ताकिβ

पीमैं=nमैं+β(Σमैंnमैं)+β

के लिए आम चुनाव है यानी वर्दी पहले के आधार पर लागू करने, उत्तराधिकार के लाप्लास के शासन , Krichevsky-ट्रोफ़िमोव अनुमान के लिए, या SCHURMANN-Grassberger (1996) आकलनकर्ता के लिए। हालांकि देखें कि आप यहां क्या करते हैं, आप अपने मॉडल में आउट-ऑफ-डेटा (पूर्व) जानकारी लागू करते हैं, इसलिए यह व्यक्तिपरक, बायोसियन स्वाद प्राप्त करता है। इस दृष्टिकोण का उपयोग करने के साथ ही आपको अपने द्वारा की गई मान्यताओं को याद रखना होगा और उन्हें ध्यान में रखना होगा। यह तथ्य कि हमारे पास एक प्राथमिक ज्ञान है कि हमारे डेटा में कोई भी शून्य संभावनाएं नहीं होनी चाहिए, यहां सीधे बायेसियन दृष्टिकोण को सही ठहराते हैं। आपके मामले में आपके पास फ़्रीक्वेंसी नहीं बल्कि संभावनाएँ हैं, इसलिए आप कुछ जोड़ रहे होंगे1 1 / 2 1 /β11/21/शून्य के लिए सही करने के लिए बहुत छोटा मूल्य। हालांकि ध्यान दें कि कुछ मामलों में इस दृष्टिकोण के बुरे परिणाम हो सकते हैं (जैसे लॉग्स से निपटने के दौरान ) इसलिए इसका उपयोग सावधानी के साथ किया जाना चाहिए।


Schurmann, T., और P. Grassberger। (1996)। प्रतीक अनुक्रमों का एंट्रोपी अनुमान। अराजकता, 6, 41-427।

एरीली, डी।, तुंग एयू, डब्ल्यू।, बेंडर, आरएच, बुडेसु, डीवी, डाइट्ज़, सीबी, गु, एच।, वालस्टेन, टीएस और ज़ुबर्मन, जी। (2000)। न्यायाधीशों के बीच और भीतर औसत व्यक्तिपरक संभावना का प्रभाव। प्रायोगिक मनोविज्ञान जर्नल: एप्लाइड, 6 (2), 130।

बैरन, जे।, मेलर्स, बीए, टेटलॉक, पीई, स्टोन, ई। और उनगर, एलएच (2014)। समग्र संभावना पूर्वानुमानों को अधिक चरम बनाने के दो कारण हैं। निर्णय विश्लेषण, 11 (2), 133-145।

एरेव, आई।, वालस्टेन, टीएस, और बुडेस्कु, डीवी (1994)। एक साथ और अधिक आत्मविश्वास: निर्णय प्रक्रियाओं में त्रुटि की भूमिका। मनोवैज्ञानिक समीक्षा, 101 (3), 519।

कर्मकार, यूएस (1978)। विशेष रूप से भारित उपयोगिता: अपेक्षित उपयोगिता मॉडल का एक वर्णनात्मक विस्तार। संगठनात्मक व्यवहार और मानव प्रदर्शन, 21 (1), 61-72।

टर्नर, बीएम, स्टीवर्स, एम।, मर्कल, ईसी, बुडेस्कु, डीवी, और वालस्टेन, टीएस (2014)। पुनर्गणना के माध्यम से पूर्वानुमान एकत्रीकरण। मशीन लर्निंग, 95 (3), 261-289।

जेनेस्ट, सी।, और ज़िडेक, जेवी (1986)। संभाव्यता वितरण का संयोजन: एक समालोचना और एक एनोटेट ग्रंथ सूची। सांख्यिकीय विज्ञान, 1 , 114-135।

सतोपा, वीए, बैरन, जे।, फोस्टर, डीपी, मेलर्स, बीए, टेटलॉक, पीई, और अनगर, एलएच (2014)। एक साधारण लॉगिट मॉडल का उपयोग करते हुए कई संभावना भविष्यवाणियों का संयोजन। पूर्वानुमान के अंतर्राष्ट्रीय जर्नल, 30 (2), 344-356।

जेनेस्ट, सी।, और शर्विश, एमजे (1985)। बायेसियन अपडेट के लिए मॉडलिंग विशेषज्ञ निर्णय। सांख्यिकी के इतिहास , 1198-1212।

डीट्रिच, एफ।, और सूची, सी। (2014)। संभाव्य राय पूलिंग। (अप्रकाशित)


2
मैं एक नया जवाब शुरू करने के बजाय इसे जोड़ना चाहता था। एक और अच्छी तरह से ज्ञात विधि तीनों (या एन) संभावनाओं को उनके ज्यामितीय माध्य (उनके अंकगणित माध्य के बजाय ) को मिलाकर है । हिंटन बताते हैं कि यह बहुत उच्च या निम्न संभावना वाला एक मॉडल देता है, जो दूसरों के बीच 'वीटो' शक्ति देता है, बजाय इसके कि जो भी आपके खिलाफ काम कर सकता है।
ज़ुर्बर्ब

इसलिए, यदि तीन पूर्वानुमान सभी 75% थे, और उनकी विश्वसनीयता के बारे में कोई जानकारी उपलब्ध नहीं है, तो अंतिम पूर्वानुमान 75% होगा?
कार्स्टन डब्ल्यू।

@KarstenW। हां, आप कुछ अलग करने की उम्मीद क्यों करेंगे? आप कोई एक प्रायोरी जानकारी है, की तुलना में यह केवल जानकारी है आपके पास है, तो आप अलग होने की अंतिम परिणाम पर विचार करने का कोई कारण नहीं है कि ... अगर
टिम

1
टेटलॉक के किसी भी शैक्षणिक पेपर को नहीं पढ़ा है, लेकिन मैं वहां शुरू करूंगा। जैसे दो कारण बनाने के लिए संभावित संभावना पूर्वानुमान अधिक चरम । मैं फिल के सटीक शब्द को देखूंगा , मैं शब्द को गलत तरीके से याद कर सकता हूं
एंडी डब्ल्यू

1
मैं अतिवादी के साथ करीब था , लेकिन काफी नहीं। मैं का इस्तेमाल किया है चाहिए extremized , देखने के लिए यहाँ । इसके अलावा बैरन एट अल। कागज उल्लेख किया है, मैं देख रहा हूँ विल Satopää विषय पर कुछ काम है arxiv.org/abs/1506.06405
एंडी डब्ल्यू

6

समस्या के बारे में सोचने के दो तरीके हैं। एक कहना है कि स्रोत अव्यक्त चर के शोर संस्करण का निरीक्षण करते हैं "यह बारिश होगी / यह बारिश नहीं होगी"।

उदाहरण के लिए, हम कह सकते हैं कि प्रत्येक स्रोत से अपने अनुमान खींचता है अगर बारिश होगी, और एक वितरण अगर यह नहीं होगा।B e t a ( a , a + b )बीटी(+,)Beta(a,a+b)

इस स्थिति में, पैरामीटर बाहर हो जाता है और तीन पूर्वानुमान, , , और को संयुक्त रूप से जोड़ा जाएगाx y zaxyz

p=11+(1x1)b(1y-1)(1z-1)

b > एक पैरामीटर है जो नियंत्रित करता है कि कैसे ( ) या ओवर ( ) आश्वस्त हो कि स्रोत क्या हैं। यदि हम यह मान लेते हैं कि स्रोत अनुमान निष्पक्ष हैं, तो और अनुमान सरल हो जाता है>1b = 1<1=1

पी1-पी=एक्स1-एक्सy1-yz1-z

जो सिर्फ यह कह रहा है: बारिश की बाधा प्रत्येक स्रोत द्वारा दिए गए बाधाओं का उत्पाद है। ध्यान दें कि यह अच्छी तरह से परिभाषित नहीं है अगर कोई स्रोत ठीक का अनुमान देता है और दूसरा बिल्कुल का अनुमान देता है , लेकिन हमारे मॉडल के तहत, ऐसा कभी नहीं होता है, स्रोत कभी भी आश्वस्त नहीं होते हैं । बेशक हम ऐसा करने के लिए अनुमति देने के लिए मॉडल को पैच कर सकते हैं।10

यह मॉडल बेहतर तरीके से काम करता है अगर आप तीन लोगों को यह बता रहे हैं कि कल बारिश हुई या नहीं। व्यवहार में, हम जानते हैं कि मौसम में एक अप्रासंगिक यादृच्छिक घटक है, और इसलिए यह मान लेना बेहतर हो सकता है कि प्रकृति पहले बारिश की संभावना को चुनती है, जो कि सूत्रों द्वारा स्पष्ट रूप से देखा जाता है, और फिर यह तय करने के लिए एक बायोस सिक्का फ़्लिप करता है या नहीं बारिश हो रही है या नहीं।

उस स्थिति में, संयुक्त अनुमान विभिन्न अनुमानों के बीच औसत से बहुत अधिक लगेगा।


इस मॉडल में x, y, z क्या होगा?
कार्स्टन डब्ल्यू।

यह तीन अलग-अलग भविष्यवाणियां होंगी।
आर्थर बी।

आप जिस उदाहरण के बारे में सोच रहे थे, वह । एक उचित विकल्प के रूप में सुझाए गए ढांचे में, आपके पास । ऐसा इसलिए है क्योंकि 3 से 1 बाधाओं का प्रतिनिधित्व करता है, इसलिए उत्पाद 27 से 1 बाधाओं का प्रतिनिधित्व करता है, या a संभावना। एक्स=y=z=34 3 ३पी=2728342728
आर्थर बी।

3/4 से 27/28 के लिए जा रहे एक सा चरम है, यह तीन लोगों की तरह है कि आप कह रहे थे कि आकाश गहरे नीले रंग की है और आप इसे काला है ... निष्कर्ष निकाला
टिम

यह मॉडल पर निर्भर करता है। यहाँ मैं मान रहा हूँ कि प्रत्येक स्रोत में एक अव्यक्त बाइनरी वैरिएबल, बारिश या बारिश नहीं होने का शोर है। यह तीन अलग-अलग लोगों की तरह है जो आपको बताते हैं कि कल बारिश हुई। आप सिस्टम को मॉडल भी बना सकते हैं क्योंकि बारिश की एक अव्यक्त संभावना और पूर्वानुमान स्रोतों को उस पूर्वानुमान का शोर संस्करण मिल सकता है।
आर्थर बी।

3

हस्तांतरणीय विश्वास मॉडल (टीबीएम) के ढांचे में , उदाहरण के लिए "संयोजन के नियम" का उपयोग करके विभिन्न भविष्यवाणियों को संयोजित करना संभव है। इस नियम को लागू करने के लिए, आपको भविष्यवाणियों की संभावनाओं को बुनियादी विश्वास असाइनमेंट में बदलने की आवश्यकता है। यह तथाकथित कमिट-कमिटेड-प्रिंसिपल के साथ प्राप्त किया जा सकता है। आर में:

library(ibelief)
#probabilities
p1 <- c(0.99, 0.01) # bad results for 0 and 1
p2 <- c(0.01, 0.99)
p3 <- c(0.5, 0.5)

# basic belief assignment, 
# each row represents a subset of (rain, not rain)
# each column represents one prediction
Mat <- LCPrincple(rbind(p1,p2,p3))

# combine beliefs
m <- DST(Mat, 1)

# resulting probability distribution (pignistic probability)
mtobetp(m)
# returns 0.5 and 0.5

0.75 के तीन स्वतंत्र पूर्वानुमानों के दूसरे उदाहरण के लिए, यह दृष्टिकोण उच्च मूल्य देता है:

p4 <- c(0.75, 0.25)
Mat <- LCPrincple(rbind(p4,p4,p4))
m <- DST(Mat, 1)
mtobetp(m)
#returns 0.9375 0.0625

यह आर्थर बी के जवाब में दिखाए गए बायेसियन दृष्टिकोण से बहुत दूर नहीं है।


2

मुझे लगता है कि किसी एक उत्तर में उल्लिखित उलटी त्रुटियों के आधार पर वेटिंग स्कीम को देखना सार्थक है। यदि स्रोत वास्तव में स्वतंत्र हैं और हम एक को समेटने के लिए वज़न में बाधा डालते हैं, तो वेट्स को द्वारा दिया जाता है।

w1=σ22σ32σ12σ22+σ12σ32+σ22σ32, w2=σ12σ32σ12σ22+σ12σ32+σ22σ32, w3=σ12σ22σ12σ22+σ12σ32+σ22σ32

यदि, ओपी कहता है, पूर्वानुमान समान रूप से विश्वसनीय हैं, तो सभी भार सरल हो जाएंगे13

σमैंσ12:σ22:σ32=1:2:4,

=814*(0)+414*(1)+214*(0.5)=0.3571

1

बारिश की संभावना के लिए उनकी संख्या केवल आधी कहानी है, क्योंकि हम अनुमान लगाने के साथ ही सटीक होने की संभावना के साथ उनकी भविष्यवाणियां करना चाहते हैं।

क्योंकि बारिश जैसी कोई चीज पारस्परिक रूप से अनन्य होती है (यह या तो बारिश हो रही है या नहीं, इस सेटअप में), वे सभी एक साथ 75% संभावना के साथ सही नहीं हो सकते हैं जैसा कि कार्स्टन ने सुझाव दिया था (मुझे लगता है, इस उलझन के बारे में सुनकर मुझे भ्रम होता है कि इसका क्या मतलब है। "संयुक्त संभावना" खोजने के लिए)।

मौसम की भविष्यवाणी करने के लिए उनकी व्यक्तिगत क्षमताओं को ध्यान में रखते हुए, हम एक छुरा (एक ला थॉमस बेयस, जैसा कि अंधेरे में आम तौर पर अंधा शॉट) में ले सकते हैं, बारिश का मौका कल है।

स्टेशन 1 उनकी भविष्यवाणियों में 60% समय, दूसरा 30% समय और अंतिम स्टेशन 10% समय में सही है।

E [बारिश] = Px X + Py Y + Pz * Z वह रूप है जिसे हम यहां देख रहे हैं:

(.6) (0) + (। 3) (1) + (। 1) (। 5) = ई [बारिश] = 35% बारिश की संभावना पूर्वसूचक सटीकता के साथ हुई।


1
यह एल्गोरिदम 1. मान से ऊपर का उत्पादन कर सकता है
एंडी डब्ल्यू

1

इस प्रश्न के बहुत सारे जटिल उत्तर दिए गए हैं, लेकिन उलटा भिन्न भारित माध्य के बारे में क्या है: https://en.wikipedia.org/wiki/Inverse-variance_weighting

एक उपकरण के साथ n बार-बार माप के बजाय, यदि मापक अलग-अलग माप के गुणवत्ता के साथ n अलग-अलग उपकरणों के साथ एक ही मात्रा का n बनाता है ...

प्रत्येक रैंडम वैरिएबल को इसके विचरण के विपरीत व्युत्क्रम में भारित किया जाता है।

उलटा-विचरण भारित औसत गणना करने के लिए बहुत सीधा लगता है और बोनस के रूप में सभी भारित औसत के बीच सबसे कम विचरण होता है।


-1

विश्वसनीयता के संयोजन के लिए, मेरा go-to सूत्र r1xr2xr3 r (r1xr2xr3 + (1-r1) x (1-r2) x (1-r3) है। इसलिए विश्वसनीयता के 3 स्रोतों के लिए 75% सभी एक ही बात कह रहे हैं, मेरे पास होगा। .75 ^ 3 75 (। .75 ^ 3 + .25 ^ 3) => संयुक्त प्रतिक्रिया की 96% विश्वसनीयता


1
यह प्रश्न का उचित उत्तर नहीं लगता है।
बजे माइकल आर। चेरिक

जाहिर है, यह सवाल का सीधा जवाब देने की तुलना में कार्स्टीडब्ल्यू टिप्पणियों की प्रतिक्रिया थी।
user3902302
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.