जवाबों:
जब आप लॉजिस्टिक रिग्रेशन करते हैं, तो आपको दो कक्षाएं और 0 के रूप में कोडित की जाती हैं । अब, आप उन संभावनाओं की गणना करते हैं जो कुछ व्याख्यात्मक वैरिएबल्स को एक व्यक्ति को 1 के रूप में कोडित वर्ग से संबंधित हैं । यदि आप अब प्रायिकता सीमा का चयन करते हैं और सभी व्यक्तियों को इस सीमा से अधिक की संभावना वाले वर्ग १ और कक्षा ० से नीचे के रूप में वर्गीकृत करते हैं, आप ज्यादातर मामलों में कुछ त्रुटियां करेंगे क्योंकि आमतौर पर दो समूहों को पूरी तरह से भेदभाव नहीं किया जा सकता है। इस सीमा के लिए अब आप अपनी त्रुटियों और तथाकथित संवेदनशीलता और विशिष्टता की गणना कर सकते हैं। यदि आप कई थ्रेसहोल्ड के लिए ऐसा करते हैं, तो आप कई संभावित थ्रेसहोल्ड के लिए 1-विशिष्टता के खिलाफ संवेदनशीलता की साजिश रचकर आरओसी वक्र का निर्माण कर सकते हैं। यदि आप दो वर्गों के बीच भेदभाव करने की कोशिश करने वाले विभिन्न तरीकों की तुलना करना चाहते हैं, तो वक्र के नीचे का क्षेत्र खेल में आता है, उदाहरण के लिए विभेदक विश्लेषण या एक प्रोबिट मॉडल। आप इन सभी मॉडलों के लिए आरओसी वक्र का निर्माण कर सकते हैं और वक्र के नीचे उच्चतम क्षेत्र के साथ सबसे अच्छे मॉडल के रूप में देखा जा सकता है।
यदि आपको गहरी समझ प्राप्त करने की आवश्यकता है, तो आप यहां क्लिक करके आरओसी वक्रों के संबंध में एक अलग प्रश्न का उत्तर भी पढ़ सकते हैं।
लॉजिस्टिक रिग्रेशन मॉडल एक प्रत्यक्ष संभावना आकलन विधि है। वर्गीकरण को इसके उपयोग में कोई भूमिका नहीं निभानी चाहिए। व्यक्तिगत विषयों पर उपयोगिताओं (हानि / लागत समारोह) का आकलन करने के आधार पर कोई भी वर्गीकरण बहुत विशेष आपात स्थितियों को छोड़कर अनुचित नहीं है। आरओसी वक्र यहाँ सहायक नहीं है; न तो संवेदनशीलता या विशिष्टता है, जो समग्र वर्गीकरण सटीकता की तरह है, अनुचित सटीकता स्कोरिंग नियम हैं जो अधिकतम संभावना अनुमान द्वारा फिट नहीं किए गए फर्जी मॉडल द्वारा अनुकूलित हैं।
मैं इस ब्लॉग का लेखक नहीं हूं और मुझे यह ब्लॉग बेहद मददगार लगा: http://fouryears.eu/2011/10/12/roc-area-under-the-curve-explained
इस स्पष्टीकरण को अपने डेटा पर लागू करने पर, औसत सकारात्मक उदाहरण में लगभग 10% नकारात्मक उदाहरण हैं जो इससे अधिक है।