वास्तव में यह बहुत आसान है: Bayes वर्गीकारक वर्ग कि सबसे बड़ा है चुनता का अनुमान किया घटित होने की संभावना (तथाकथित अधिकतम कारण का अनुमान अनुमान )। 0-1 नुकसान समारोह penalizes गलत वर्गीकरण, यानी यह समाधान सही वर्गीकरण की सबसे बड़ी संख्या है कि छोटी नुकसान प्रदान करती है। इसलिए दोनों मामलों में हम मोड का आकलन करने के बारे में बात कर रहे हैं । उस मोड को याद रखें, जो कि डेटासेट में सबसे आम मूल्य है, या सबसे संभावित मूल्य है , इसलिए दोनों ही पश्च की संभावना को अधिकतम करते हैं और 0-1 नुकसान को कम करके मोड का अनुमान लगाते हैं।
यदि आपको औपचारिक प्रमाण की आवश्यकता है, तो एंजेला जे। यू। द्वारा बायेसियन डिसीजन थ्योरी पेपर के परिचय में दिया गया है :
0-1 बाइनरी लॉस फ़ंक्शन के निम्नलिखित रूप हैं:
lx(s^,s∗)=1−δs^s∗={10ifs^≠s∗otherwise
जहां क्रॉन्कर डेल्टा फ़ंक्शन है। (...) अपेक्षित नुकसान है:δ
Lx(s^)=∑s∗lx(s^,s∗)P(s=s∗∣x)=∑s∗(1−δs^s∗)P(s=s∗∣x)=∑s∗P(s=s∗∣x)ds∗−∑s∗δs^s∗P(s=s∗∣x)=1−P(s=s∗∣x)
यह सामान्य रूप से अधिकतम पश्च-अनुमान के लिए सही है। इसलिए यदि आप पश्च वितरण को जानते हैं , तो 0-1 नुकसान मानते हुए, सबसे इष्टतम वर्गीकरण नियम है कि पीछे वितरण का मोड लेना है, हम इसे एक इष्टतम बेयस क्लासिफायरियर कहते हैं । वास्तविक जीवन में हम आमतौर पर पश्च वितरण को नहीं जानते हैं, बल्कि हम इसका अनुमान लगाते हैं। Naive Bayes क्लासिफायरियर , अनुभवजन्य वितरण को देखते हुए और भविष्यवाणियों की स्वतंत्रता को देखते हुए इष्टतम क्लासिफायरियर का अनुमान लगाता है। तो भोले बेय्स क्लासिफायर स्वयं इष्टतम नहीं है, लेकिन यह इष्टतम समाधान का अनुमान लगाता है। अपने प्रश्न में आप उन दो चीजों को भ्रमित करते हैं।