से StatSoft, इंक (2013), इलेक्ट्रॉनिक सांख्यिकी पाठ्यपुस्तक , "अनुभवहीन Bayes वर्गीकरणकर्ता" :
Naïve Bayes वर्गीकरण की अवधारणा को प्रदर्शित करने के लिए, ऊपर दिए गए चित्रण में प्रदर्शित उदाहरण पर विचार करें। जैसा कि संकेत दिया गया है, वस्तुओं को या तो GREEN या RED के रूप में वर्गीकृत किया जा सकता है। मेरा कार्य नए मामलों को वर्गीकृत करना है क्योंकि वे आते हैं, अर्थात, वर्तमान में बाहर निकलने वाली वस्तुओं के आधार पर, वे किस श्रेणी के लेबल का निर्धारण करते हैं।
चूंकि RED के रूप में कई GREEN ऑब्जेक्ट हैं, इसलिए यह मानना उचित है कि एक नया मामला (जो अभी तक नहीं देखा गया है) RED की बजाय GREEN की सदस्यता होने की संभावना से दोगुना है। बायेसियन विश्लेषण में, इस विश्वास को पूर्व संभाव्यता के रूप में जाना जाता है। पिछली संभावनाएं पिछले अनुभव पर आधारित हैं, इस मामले में GREEN और RED ऑब्जेक्ट का प्रतिशत, और अक्सर परिणाम का अनुमान लगाने के लिए उपयोग किया जाता है इससे पहले कि वे वास्तव में होते हैं।
इस प्रकार, हम लिख सकते हैं:
चूंकि कुल 60 ऑब्जेक्ट हैं, जिनमें से 40 GREEN और 20 RED हैं, क्लास सदस्यता के लिए हमारी पूर्व संभावनाएं हैं:
हमारी पूर्व संभावना तैयार करने के बाद, हम अब एक नई वस्तु (WHITE सर्कल) को वर्गीकृत करने के लिए तैयार हैं। चूंकि ऑब्जेक्ट अच्छी तरह से गुच्छित होते हैं, इसलिए यह मान लेना उचित है कि X के आसपास के क्षेत्र में जितनी अधिक GREEN (या RED) वस्तुएं हैं, उतने ही अधिक नए मामले उस विशेष रंग के हैं। इस संभावना को मापने के लिए, हम X के चारों ओर एक चक्र बनाते हैं, जो उनके वर्ग लेबल के बावजूद अंकों की संख्या (एक प्राथमिकता के रूप में चुना जाना चाहिए) को सम्मिलित करता है। फिर हम प्रत्येक वर्ग लेबल से संबंधित सर्कल में अंकों की संख्या की गणना करते हैं। इससे हम संभावना की गणना करते हैं:
ऊपर दिए गए दृष्टांत से, यह स्पष्ट है कि एक्स के दिए गए लेलिनहुड को एक्सईएल के रेड की तुलना की तुलना में छोटा है, क्योंकि सर्कल में 1 ग्रीन ऑब्जेक्ट और 3 रेड वाले शामिल हैं। इस प्रकार:
हालाँकि, पूर्व की संभावनाएँ बताती हैं कि X GREEN से संबंधित हो सकता है (यह देखते हुए कि RED की तुलना में दोगुने GREEN हो सकते हैं) संभावना संभव नहीं है; यह है कि X की कक्षा सदस्यता RED है (यह देखते हुए कि GRE की तुलना में X के आसपास में अधिक RED ऑब्जेक्ट हैं)। बायेसियन विश्लेषण में, अंतिम वर्गीकरण को सूचना के दोनों स्रोतों, अर्थात, पूर्व और संभावना के संयोजन द्वारा निर्मित किया जाता है, ताकि तथाकथित बेयस नियम (रेव थॉमस बेयस 1702-1761 के नाम पर) का उपयोग करके एक प्रतिकूल संभावना बन सके।
अंत में, हम X को RED के रूप में वर्गीकृत करते हैं क्योंकि इसकी कक्षा सदस्यता सबसे बड़ी पश्च संभावना है।
यहीं से मेरी मैथ्स समझने की मुश्किल सामने आती है।
p (Cj | X1, x2, x ..., xd) वर्ग सदस्यता की पूर्ववर्ती संभावना है, अर्थात, संभावना है कि X Cj से संबंधित है, लेकिन इसे इस तरह क्यों लिखें?
संभावना की गणना?
अतीत से संभावना?
मैंने कभी गणित नहीं लिया, लेकिन भोले-भाले लोगों के बारे में मेरी समझ ठीक है, मुझे लगता है कि जब यह इन विघटित तरीकों की बात आती है तो मुझे भ्रमित करती है। क्या कोई इन तरीकों को समझने में मदद कर सकता है और गणित को कैसे समझ सकता है?