सटीक और याद करने के लिए सही मान क्या हैं जब भाजक 0 के बराबर हैं?


16

परिशुद्धता के रूप में परिभाषित किया गया है:

पी = सही सकारात्मक / (सही सकारात्मक + झूठी सकारात्मक)

सटीक का मान क्या है (यदि वास्तविक सकारात्मक + गलत सकारात्मक) = 0? क्या यह सिर्फ अपरिभाषित है?

याद करने के लिए एक ही सवाल:

r = सही सकारात्मक / (सच्ची सकारात्मक + गलत नकारात्मक)

इस मामले में, अगर (सच्ची सकारात्मक + गलत नकारात्मक) = 0 को याद करने का क्या मूल्य है?

पुनश्च यह प्रश्न इस प्रश्न से बहुत मिलता-जुलता है कि धार के मामलों में सटीकता और रिकॉल के लिए सही मूल्य क्या हैं?


1
हेह, यह भी नकल में जवाब दिया है; लेकिन चलो इसे एक अच्छा डुप्लिकेट कहते हैं।

जवाबों:


9

पहले से जुड़े प्रश्न के उत्तर यहां भी लागू होते हैं।

यदि (सही सकारात्मक + गलत नकारात्मक) = 0 तो इनपुट डेटा में कोई सकारात्मक मामले नहीं हैं, इसलिए इस मामले के किसी भी विश्लेषण की कोई जानकारी नहीं है, और इसलिए सकारात्मक मामलों को कैसे संभाला जाए, इसके बारे में कोई निष्कर्ष नहीं निकला है। आप एन / ए या अनुपात परिणाम के रूप में ऐसी ही कुछ करना चाहते हैं, एक से बचने के शून्य से भाग त्रुटि

यदि (वास्तविक सकारात्मक + गलत सकारात्मक) = 0 तो सभी मामलों को नकारात्मक होने की भविष्यवाणी की गई है: यह आरओसी वक्र का एक छोर है। फिर से, आप शून्य त्रुटि से एक विभाजन से बचने के दौरान इस संभावना को पहचानना और रिपोर्ट करना चाहते हैं ।


जवाब के लिए धन्यवाद हेनरी। यदि मैं सही तरीके से समझता हूं, तो पूर्व मामले में, आप परिणाम को पहचानना और रिपोर्ट नहीं करना चाहते हैं, जबकि बाद के मामले में आप करते हैं । क्या वो सही है?
रफी खाचदौरेन 19

हां: नो-पॉजिटिव-इन-इनपुट मामले में, सटीक अर्थहीन है; नो-पॉज़िटिव-प्रेडिक्टेड केस में, आप रिपोर्ट करना चाहते हैं कि परीक्षण बेहद नकारात्मक निर्धारित किया गया है।
हेनरी

5

एक दिलचस्प जवाब यहाँ दिया जाता है: https://github.com/dice-group/gerbil/wiki/Preaches,-Recall-and-F1-measure

मॉड्यूल के लेखक सटीक के लिए अलग-अलग स्कोर का उत्पादन करते हैं और याद करते हैं कि क्या सही सकारात्मक, झूठी सकारात्मक और झूठी नकारात्मक सभी पर निर्भर करता है । 0. यदि वे हैं, तो परिणाम सामान्य रूप से एक अच्छा है।

कुछ दुर्लभ मामलों में, प्रेसिजन या रिकॉल की गणना 0. के द्वारा विभाजन का कारण बन सकती है। सटीक के बारे में, यह तब हो सकता है जब किसी एनोटेटर के उत्तर के अंदर कोई परिणाम न हों और इस प्रकार, सच के साथ-साथ गलत सकारात्मक 0 भी हों। इन विशेष मामलों के लिए, हमने परिभाषित किया है कि यदि वास्तविक सकारात्मकता, झूठी सकारात्मकता और झूठी नकारात्मक सभी 0 हैं, तो सटीक, याद और एफ 1-माप 1 हैं। यह उन मामलों में हो सकता है जिनमें सोने के मानक में बिना किसी दस्तावेज के होता है। एनोटेशन और एनोटेटर (सही ढंग से) कोई एनोटेशन नहीं देता है। यदि वास्तविक सकारात्मक 0 हैं और दो अन्य काउंटरों में से एक 0 से बड़ा है, तो सटीक, रीकॉल और एफ 1-माप 0 हैं।

मुझे यकीन नहीं है कि अगर इस प्रकार का स्कोरिंग उनके विशेष मामले के बाहर अन्य स्थितियों में उपयोगी होगा, लेकिन यह कुछ सोचने लायक है।


1

उच्च थ्रेसहोल्ड पर एक क्लासिफायरियर का मूल्यांकन करते समय, जब याद किया जाता है तो परिशुद्धता 1 (अक्सर वास्तव में) 1 नहीं हो सकती है। यह आमतौर पर एन / ए है! मुझे लगता है कि कुछ गलत है कि लोग पी / आर वक्र की साजिश कैसे करते हैं। एन / ए नमूनों से बचना इस मायने में एक पूर्वाग्रह है कि आप विलक्षणता के नमूनों से बचें। मैंने एन / ए नमूनों की अनदेखी करने वाले औसत रिकॉल को औसत सटीक रिट की गणना की और मुझे ऑब्जेक्ट डिटेक्शन में एक उथले तंत्रिका जाल के लिए 0 पर 1 के लिए एक क्लासिफायरर की शुरुआत हुई। यह tp, fp, fn संख्याओं के साथ घटता घटता के लिए भी सही था। एक ही छवि के साथ कागज और पेंसिल द्वारा सत्यापित करना काफी आसान है। उदाहरण के लिए: मेरे पास एक क्लासिफायरियर है जो एक एकल छवि के लिए आउटपुट करता है: preds = [। 7 .6 .5 .1 .05] सत्य = [nynny] विभिन्न थ्रेसहोल्ड के साथ भ्रम की स्थिति की गणना करके हमारे पास: tp = [2 1] 1 1 0 0], fn = [0 1 1 1 2 2], fp = [3 3 2 1 1 0]। रिकॉल = = [1 .5 .5। 0 0], और सटीक = [4 .25 1/3 .5 0 NaN]। मैं नहीं देखता कि यह कैसे एक NaN या परिशुद्धता (@ याद == 0) को बदलने के लिए समझ में आता है। 1 के साथ एक ऊपरी सीमा होनी चाहिए, न कि एक मान जिसे हम परिशुद्धता (@ याद == 0) से बदलते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.