Naive Bayes एक रैखिक क्लासिफायरियर कैसे है?


31

मैंने दूसरे सूत्र को यहाँ देखा है, लेकिन मुझे नहीं लगता कि उत्तर वास्तविक प्रश्न को संतुष्ट करता है। मैंने जो लगातार पढ़ा है वह यह है कि Naive Bayes एक लीनियर क्लासिफायरिफायर (उदा: यहाँ ) है (जैसे कि यह लीनियर डिसीजन बाउंड्री ड्रॉ करता है) लॉग ऑड्स प्रदर्शन का उपयोग करते हुए।

हालाँकि, मैंने दो गाऊसी बादलों का अनुकरण किया और एक निर्णय सीमा तय की और परिणाम प्राप्त हुए (पुस्तकालय e1071 आर में, naiveBayes () का उपयोग करके) 1- हरा, 0 - लाल

जैसा कि हम देख सकते हैं, निर्णय सीमा गैर-रैखिक है। क्या यह कहने की कोशिश की जा रही है कि पैरामीटर (सशर्त संभावनाएं) लॉग स्पेस में एक रैखिक संयोजन हैं बजाय यह कहने के कि क्लासिफायरियर डेटा को रैखिक रूप से अलग करता है?


आपने निर्णय सीमा कैसे बनाई? मुझे इसका श्रेय क्लासिफायर की सही निर्णय सीमा के बजाय आपकी फिटिंग रूटीन से है। आम तौर पर कोई भी आपके क्वाड्रंट में हर एक बिंदु पर निर्णय की गणना करके एक निर्णय सीमा उत्पन्न करेगा।
seanv507

यही मैंने किया, मैंने 0.1 की रिक्ति के साथ एक्स = [मिन (एक्स), मैक्स (एक्स)] और वाई = [मिन (वाई), मैक्स (वाई)] की दो श्रृंखलाएं लीं। मैंने तब उन सभी डेटा पॉइंट्स को प्रशिक्षित क्लासिफायर के साथ फिट किया और ऐसे पॉइंट्स पाए जो लॉग ऑड्स -0.05 और 0.05 के बीच थे
केविन पेई

जवाबों:


30

सामान्य तौर पर अनुभवहीन Bayes वर्गीकारक रैखिक नहीं है, लेकिन अगर संभावना कारकों p(xic) से हैं घातीय परिवारों , कोई विशेष सुविधा अंतरिक्ष में अनुभवहीन Bayes वर्गीकारक मेल खाती है करने के लिए एक रेखीय वर्गीकारक। यहाँ यह कैसे देखना है।

आप *

p(c=1x)=σ(ilogp(xic=1)p(xic=0)+logp(c=1)p(c=0)),

जहां है रसद समारोह । अगर पी ( एक्स मैं | ) एक घातीय परिवार से है, हम इसे के रूप में लिख सकते हैंσp(xic)

p(xic)=hi(xi)exp(uicϕi(xi)Ai(uic)),

और इसलिए

p(c=1x)=σ(iwiϕi(xi)+b),

कहा पे

wi=ui1ui0,b=logp(c=1)p(c=0)i(Ai(ui1)Ai(ui0)).

ध्यान दें कि यह करने के लिए इसी तरह की है रसद प्रतिगमन - एक रेखीय वर्गीकारक - सुविधा अंतरिक्ष द्वारा परिभाषित में । दो से अधिक वर्गों के लिए, हम बहुराष्ट्रीय लॉजिस्टिक (या सॉफ्टमैक्स) प्रतिगमन प्राप्त करते हैंϕi

अगर गाऊसी, तो है φ मैं ( एक्स मैं ) = ( एक्स मैं , x 2 मैं ) और हम होना चाहिए डब्ल्यू मैं 1p(xic)ϕi(xi)=(xi,xi2)

wi1=σ12μ1σ02μ0,wi2=2σ022σ12,bi=logσ0logσ1,

मान p(c=1)=p(c=0)=12


* यहां बताया गया है कि इस परिणाम को कैसे प्राप्त करें:

p(c=1x)=p(xc=1)p(c=1)p(xc=1)p(c=1)+p(xc=0)p(c=0)=11+p(xc=0)p(c=0)p(xc=1)p(c=1)=11+exp(logp(xc=1)p(c=1)p(xc=0)p(c=0))=σ(ilogp(xic=1)p(xic=0)+logp(c=1)p(c=0))

व्युत्पत्ति के लिए धन्यवाद, जो मुझे अब समझ में आया है, क्या आप समीकरण 2 और नीचे में नोटिफिकेशन समझा सकते हैं? (u, h (x_i), phi (x_i), आदि) P (x_i | c) एक घातीय परिवार के अंतर्गत बस पीडीएफ से मूल्य ले रहा है?
केविन पे

uϕ
लुकास

1
ϕ(x)=(x,x2)w

मुझे यह उत्तर भ्रामक लगता है: जैसा कि टिप्पणी में बताया गया है, और नीचे दिए गए उत्तर के अनुसार, गाऊसी भोली बेयस मूल विशेषता स्थान में रैखिक नहीं है, लेकिन इनमें से एक गैर-रैखिक परिवर्तन में है। इसलिए यह एक पारंपरिक रैखिक वर्गीकरण नहीं है।
गेल वरक्वाउक्स

पी(एक्समैं|सी) गाऊसी है, तब φमैं(एक्समैं)=(एक्समैं,एक्समैं2)? मुझे लगता है कि पर्याप्त आँकड़ा हैटी(एक्स) गौसियन वितरण के लिए होना चाहिए एक्स/σ
नाओमी

8

यह केवल रैखिक है यदि दोनों वर्गों के लिए वर्ग सशर्त विचरण मैट्रिक्स समान हैं। यह देखने के लिए लॉग पोस्टर्स के राशन को लिखें और यदि संबंधित संस्करण समान हैं तो आपको केवल इसका एक लीनियर फंक्शन मिलेगा। अन्यथा यह द्विघात है।


3

मैं एक अतिरिक्त बिंदु जोड़ना चाहूंगा: कुछ भ्रम का कारण यह है कि इसका क्या अर्थ है "Naive Bayes वर्गीकरण"।

"गाऊसी डिस्क्रिमिनेन्ट एनालिसिस (जीडीए)" के व्यापक विषय के तहत कई तकनीकें हैं: क्यूडीए, एलडीए, जीएनबी, और डीएलएडीए (द्विघात डीए, रैखिक डीए, गॉसियन भोले बे, विकर्ण एलडीए)। [अद्यतन] LDA और DLDA दिए गए भविष्यवक्ताओं के स्थान में रैखिक होना चाहिए। (देखें, उदाहरण के लिए, मर्फी , 4.2, पृष्ठ। डीए के लिए 101 और एनबी के लिए पीजी। 82। नोट: जीएनबी जरूरी रैखिक नहीं है। असतत एनबी (जो हुड के तहत एक बहुराष्ट्रीय वितरण का उपयोग करता है) रैखिक है। आप डूडा को भी बाहर कर सकते हैं। , हार्ट और सारस खंड 2.6)। QDA द्विघात है क्योंकि अन्य उत्तर इंगित करते हैं (और जो मुझे लगता है कि आपके ग्राफिक में क्या हो रहा है - नीचे देखें)।

ये तकनीकें "वर्ग-वार सहसंयोजक मैट्रिक्स" पर बाधाओं का एक अच्छा सेट के साथ एक जाली बनाती हैं Σसी:

  • Qda: Σसीमनमाना: मनमाना ftr। cov। प्रति वर्ग मैट्रिक्स
  • झील प्राधिकरण: Σसी=Σ: साझा कोव। मैट्रिक्स (कक्षाओं पर)
  • GNB: Σसी=मैंजीसी: वर्ग वार विकर्ण कोव मॉडल में परिपक्वता (इंडस्ट्रीज़ की धारणा)विकर्ण कोव मैट्रिक्स)
  • DLDA: Σसी=मैंजी: साझा और विकर्ण कोव। मैट्रिक्स

जबकि e1071 के लिए डॉक्स का दावा है कि यह वर्ग-सशर्त स्वतंत्रता (यानी, GNB) मान रहा है, मुझे संदेह है कि यह वास्तव में QDA कर रहा है। कुछ लोग "सरल बायेसियन वर्गीकरण नियम" के साथ "भोले बेज़" (स्वतंत्रता की धारणा बना रहे हैं) का सामना करते हैं। जीडीए के सभी तरीके बाद में प्राप्त होते हैं; लेकिन केवल GNB और DLDA पूर्व का उपयोग करते हैं।

A big warning, I haven't read the e1071 source code to confirm what it is doing.

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.