संवेदनशीलता, विशिष्टता, सटीकता, सटीकता और याद करने के बीच अंतर को याद रखने का सबसे अच्छा तरीका क्या है?


49

502847894789 बार इन शब्दों को देखने के बावजूद, मैं अपने जीवन के लिए संवेदनशीलता, विशिष्टता, सटीकता, सटीकता और याद के बीच के अंतर को याद नहीं कर सकता। वे बहुत सरल अवधारणाएं हैं, लेकिन नाम मेरे लिए बहुत अचूक हैं, इसलिए मैं उन्हें एक-दूसरे के साथ भ्रमित करता रहता हूं। इन अवधारणाओं के बारे में सोचने का एक अच्छा तरीका क्या है ताकि नाम समझ में आने लगें?

एक और तरीका रखो, इन नामों को इन अवधारणाओं के लिए क्यों चुना गया, कुछ अन्य नामों के विपरीत?


3
याद रखने का सबसे अच्छा तरीका एक वास्तविक जीवन अध्ययन को याद करना है जहां यह या वह विशेषता फोकस में थी। यानी प्रासंगिक मांस मदद करता है।
ttnphns

1
मेरे लिए, इन अवधारणाओं को याद रखने का सबसे अच्छा तरीका विकिपीडिया लिंक के भीतर 2 × 2 आकस्मिक तालिका है ।
रैंडेल

1
@ttnphns: "प्रासंगिक मांस" एक बढ़िया टाइपो है!
अमीबा का कहना है कि मोनिका

4
याद है संवेदनशीलता, वहाँ आप से निपटने के लिए एक कम है। :)
पेंग्विन_केनाइट

1
बस इसे यहाँ रखने के लिए, यह पोस्ट एक अच्छा विवरण प्रस्तुत करती है: uberpython.wordpress.com/2012/01/01/…
Maxim.K

जवाबों:


9

व्यक्तिगत रूप से मुझे सूचना पुनर्प्राप्ति के बारे में सोचकर सटीक और याद रखने (उर्फ संवेदनशीलता) के बीच का अंतर याद है:

  • रिकॉल दस्तावेजों का वह अंश है जो उस क्वेरी के लिए प्रासंगिक है जिसे सफलतापूर्वक पुनर्प्राप्त किया जाता है, इसलिए इसका नाम (अंग्रेजी में याद करते हुए = कुछ याद रखने की क्रिया)।
  • परिशुद्धता उन दस्तावेजों का अंश है जिन्हें पुनर्प्राप्त किया गया है जो उपयोगकर्ता की जानकारी की आवश्यकता के लिए प्रासंगिक हैं। किसी तरह आप कुछ शॉट्स लेते हैं और अगर उनमें से अधिकांश को अपना लक्ष्य (प्रासंगिक दस्तावेज) मिल गया है, तो आपके पास एक उच्च परिशुद्धता है, चाहे आपने कितने शॉट्स निकाल दिए हों (दस्तावेजों की संख्या जो पुनर्प्राप्त हो गई थी)।

32

सटीक और रीकॉल के लिए, प्रत्येक सही पॉजिटिव (टीपी) है, क्योंकि एक अलग भाजक द्वारा विभाजित अंश।

  • पी मंदी : टीपी / पी सकारात्मक भुनाया
  • आर eCall: टी.पी. / आर eal सकारात्मक

हालांकि, इस उत्तर के उपयोगी होने के लिए आपको टीपी, टीएन, एफएन और एफपी की परिभाषा याद रखनी होगी।
नबर

15

मानवविज्ञान बड़े करीने से मनुष्य की एकमात्र दासता को समाप्त करता है: अपर्याप्त सेरेब्रल भंडारण।

के बारे में पता है:

  • एक एसएन sitive परीक्षण, जब एन egative नियमों बाहर रोग
  • एक एसपी पारिस्थितिक परीक्षण, जब पी ऑसिटिव, एक बीमारी में नियम करता है।

मैं एक सेंट्रीफ्यूज में एक सूअर के घूमने की कल्पना करता हूं, शायद अंतरिक्ष में जाने की तैयारी में, मुझे इस महामारी को याद करने में मदद करने के लिए। उचित रूप से बदले गए शब्दों के साथ टेल स्पिन को थीम को गुनगुनाते हुए एक निश्चित पीढ़ी से संगीत को झुकाव कर सकते हैं।

मुझे किसी अन्य की जानकारी नहीं है।


SNOUT और SPIN नियम भ्रामक रूप से सरल हैं। आपको वास्तव में सकारात्मक या नकारात्मक परीक्षा परिणाम में अपना भरोसा रखने से पहले संवेदनशीलता, विशिष्टता और व्यापकता के अच्छे अनुमान लगाने चाहिए, चाहे परीक्षा कितनी भी संवेदनशील या विशिष्ट क्यों न हो। इस वेबसाइट को देखें: kennis-research.shinyapps.io/Bayes-App । उदाहरण के लिए, प्रति 1,000 में 5 का प्रसार दर्ज करना। संवेदनशीलता = .90, विशिष्टता = .99 .2857 का अपेक्षाकृत कम सकारात्मक भविष्य कहनेवाला मूल्य (बायस नियम के माध्यम से) पैदा करता है।
रॉबर्ट एफए

5

बाइनरी वर्गीकरण के संदर्भ में:

सटीकता - मॉडल लेबल ने कितने उदाहरण सही ढंग से दिए हैं?

याद करें - मॉडल कितनी बार सकारात्मक खोजने में सक्षम था?

परिशुद्धता - मॉडल कितना विश्वसनीय है जब यह कहता है कि एक उदाहरण एक सकारात्मक है?


1

मैंने इन शब्दों के बीच अंतर को समझने में मदद करने के लिए एक इंटरैक्टिव भ्रम तालिका बनाई: http://zyxue.github.io/2018/05/15/on-the-p-value.html#interactive-confusion-table । अगर किसी को यह मददगार लग सकता है, तो मैं यहाँ लिंक पोस्ट करता हूँ।


0

सटीकता और सटीकता के बीच अंतर को याद रखने के लिए मैं TARP शब्द का उपयोग करता हूं।

TARP: सही = सटीकता, सापेक्ष = सटीक।

सटीकता मापता है कि कोई माप TRUE मान के कितना करीब है, क्योंकि मानक / स्वीकृत मूल्य TRUTH है।

परिशुद्धता मापता है कि माप एक दूसरे से कितने करीब हैं, या विभिन्न मापों के बीच प्रसार कितना कम है।

सटीकता सत्य है, सटीकता सापेक्षता है।

उम्मीद है की यह मदद करेगा।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.