मेरे पास सामान्य तौर पर वर्गीकरण के संबंध में एक प्रश्न है। च एक क्लासिफायरियर होने दें, जो कुछ डेटा डी को दिए गए संभावनाओं के एक सेट को आउटपुट करता है। आम तौर पर, कोई भी कहेगा: ठीक है, अगर पी (सी | डी)> 0.5, हम एक कक्षा 1 को असाइन करेंगे, अन्यथा 0 (इसे बाइनरी होने दें वर्गीकरण)।
मेरा प्रश्न यह है कि क्या होगा अगर मुझे पता चले, कि अगर मैं 1 को भी संभावनाओं के रूप में वर्गीकृत करता हूं, तो इससे बड़ा: यानी 0.2, क्लासिफायर बेहतर प्रदर्शन करता है। क्या वर्गीकरण करते समय इस नई सीमा का उपयोग करना वैध है?
मैं एक छोटे सिग्नल को छोड़ने वाले डेटा के संदर्भ में बाध्य कम वर्गीकरण के लिए आवश्यकता की व्याख्या करूंगा; अभी भी वर्गीकरण समस्या के लिए महत्वपूर्ण है।
मुझे लगता है कि यह ऐसा करने का एक तरीका है, फिर भी अगर यह सही सोच नहीं है, तो कुछ डेटा परिवर्तन क्या होंगे, जो एक समान तरीके से व्यक्तिगत विशेषताओं पर जोर देते हैं, ताकि दहलीज 0.5 पर रह सके?