कई हैं - और क्या सबसे अच्छा काम करता है यह डेटा पर निर्भर करता है। धोखा देने के भी कई तरीके हैं - उदाहरण के लिए, आप किसी भी क्लासिफायर के आउटपुट पर प्रायिकता अंशांकन कर सकते हैं जो स्कोर के कुछ अंश देता है (जैसे: वेट वेक्टर और इनपुट के बीच एक डॉट उत्पाद)। इसका सबसे आम उदाहरण प्लॉट का स्केलिंग कहा जाता है।
अंतर्निहित मॉडल के आकार की बात भी है। यदि आपके पास अपने डेटा के साथ बहुपद बातचीत है, तो वेनिला लॉजिस्टिक प्रतिगमन इसे अच्छी तरह से मॉडल करने में सक्षम नहीं होगा। लेकिन आप लॉजिस्टिक रिग्रेशन के कर्नेल संस्करण का उपयोग कर सकते हैं ताकि मॉडल डेटा को बेहतर तरीके से फिट कर सके। यह आमतौर पर संभावना आउटपुट के "अच्छाई" को बढ़ाता है क्योंकि आप क्लासिफायरियर की सटीकता में भी सुधार कर रहे हैं।
आमतौर पर, प्रायिकता देने वाले अधिकांश मॉडल आमतौर पर एक लॉजिस्टिक फ़ंक्शन का उपयोग करते हैं, इसलिए इसकी तुलना करना कठिन हो सकता है। यह सिर्फ व्यवहार में अच्छी तरह से काम करता है, बायेसियन नेटवर्क एक विकल्प है। Naive Bayes किसी भी अच्छे होने के लिए अपनी संभावनाओं के लिए बहुत सरल बनाता है - और यह आसानी से किसी भी उचित डेटा सेट पर मनाया जाता है।
अंत में, यह आमतौर पर उस मॉडल को चुनकर आपके संभाव्यता अनुमानों की गुणवत्ता को बढ़ाना आसान होता है जो डेटा का बेहतर प्रतिनिधित्व कर सकते हैं। इस मायने में, यह बहुत ज्यादा मायने नहीं रखता है कि आपको संभावनाएं कैसे मिलती हैं। यदि आप लॉजिस्टिक रिग्रेशन के साथ 70% सटीकता प्राप्त कर सकते हैं, और एक एसवीएम के साथ 98% - तो सिर्फ एक "पूर्ण विश्वास" संभावना देने से आप सबसे अधिक स्कोरिंग तरीकों से "बेहतर" परिणाम प्राप्त करेंगे, भले ही वे वास्तव में संभावनाएं नहीं हैं (और तब आप पहले मेरे द्वारा बताए गए अंशांकन कर सकते हैं, जिससे वे वास्तव में बेहतर हो जाएंगे)।
एक सटीक क्लासिफ़ायर प्राप्त करने में असमर्थ होने के संदर्भ में एक ही प्रश्न अधिक दिलचस्प है, लेकिन मुझे यकीन नहीं है कि ऐसे परिदृश्य में किसी ने अध्ययन किया / तुलना की।