पूर्व: मैं कटऑफ का उपयोग करने के गुणों के बारे में परवाह नहीं करता हूं या नहीं, या किसी को कटऑफ कैसे चुनना चाहिए। मेरा प्रश्न विशुद्ध रूप से गणितीय है और जिज्ञासा के कारण है।
लॉजिस्टिक रिग्रेशन क्लास ए बनाम क्लास बी की पश्चवर्ती सशर्त संभावना को मॉडल करता है और यह एक हाइपरप्लेन को फिट करता है जहां पीछे की सशर्त संभावनाएं बराबर होती हैं। इसलिए सिद्धांत रूप में, मैं समझ गया कि 0.5 वर्गीकरण बिंदु सेट बैलेंस की परवाह किए बिना कुल त्रुटियों को कम करेगा, क्योंकि यह बाद की संभावना को मॉडल करता है (यह मानते हुए कि आप लगातार एक ही वर्ग अनुपात का सामना करते हैं)।
अपने वास्तविक जीवन उदाहरण में, मैं अपने वर्गीकरण कटऑफ (लगभग 51% सटीकता) के रूप में P> 0.5 का उपयोग करके बहुत खराब सटीकता प्राप्त करता हूं। हालाँकि, जब मैंने AUC को देखा तो यह 0.99 से ऊपर है। इसलिए मैंने कुछ अलग-अलग कटऑफ मूल्यों को देखा और पाया कि P> 0.6 ने मुझे 98% सटीकता (90% छोटे वर्ग के लिए और 99% बड़े वर्ग के लिए) दी - केवल 2% मामलों में मिसकैरेज हुआ।
कक्षाएं भारी असंतुलित (1: 9) हैं और यह एक उच्च-आयामी समस्या है। हालांकि, मैंने कक्षाओं को प्रत्येक क्रॉस-वैलिडेशन सेट के बराबर आवंटित किया ताकि मॉडल फिट और फिर भविष्यवाणी के बीच कक्षाओं के संतुलन के बीच अंतर न हो। मैंने मॉडल फिट से और पूर्वानुमानों में समान डेटा का उपयोग करने की भी कोशिश की और वही मुद्दा हुआ।
मुझे इस कारण में दिलचस्पी है कि 0.5 त्रुटियों को कम क्यों नहीं करेगा, मुझे लगा कि यह डिजाइन द्वारा होगा यदि मॉडल क्रॉस-एन्ट्रापी नुकसान को कम करके फिट किया जा रहा है।
क्या किसी के पास कोई प्रतिक्रिया है कि ऐसा क्यों होता है? क्या यह दंड जोड़ने के कारण है, क्या कोई समझा सकता है कि क्या हो रहा है?