मैं लॉजिस्टिक रिग्रेशन के माध्यम से इस सवाल का जवाब देने की कोशिश करूंगा , सबसे सरल रैखिक क्लासिफायरियर में से एक।
रसद प्रतिगमन का सबसे सामान्य स्थिति अगर हम एक है द्विआधारी वर्गीकरण कार्य ( और केवल एक इनपुट सुविधा ( एक्स ∈ आर )। इस मामले में लॉजिस्टिक रिग्रेशन का आउटपुट होगा:y∈ { 0 , 1 } )x ∈ आर
y^= Σ ( डब्ल्यू ⋅ एक्स + ख )
जहां और दोनों
स्केलर हैं । मॉडल का आउटपुट इस संभावना से मेल खाता है कि कक्षा ।
बwखएक्स1y^∈ [ 0 , 1 ]एक्स1
हम वाक्यांश को तोड़ने की कोशिश करेंगे "रैखिक classifiers सुविधाओं और वर्गों के बीच मापदंडों को साझा नहीं करते हैं" दो भागों में। हम कई विशेषताओं और कई वर्गों के मामलों की अलग-अलग जांच करेंगे कि क्या लॉजिस्टिक रिग्रेशन उन कार्यों के लिए पैरामीटर साझा करता है:
क्या रेखीय क्लासीफायर सुविधाओं के बीच मापदंडों को साझा करते हैं?
इस मामले में, प्रत्येक उदाहरण के लिए, एक अदिश कि द्विआधारी मूल्यों (पहले की तरह) लेता है, जबकि एक है वेक्टर लंबाई के (जहां सुविधाओं की संख्या है)। यहां, आउटपुट इनपुट सुविधाओं का एक रैखिक संयोजन है (यानी इन सुविधाओं का एक भारित योग प्लस के आधार पर)।x यyएक्सएनएनएन
एक्स डब्ल्यू एन x ⋅ डब्ल्यू डब्ल्यू मैं एक्स मैं
y^=σ(∑iN(wi⋅xi)+b)orσ(w⋅x+b)
जहां और लंबाई वैक्टर हैं । उत्पाद एक अदिश उत्पादन करता है। जैसा कि आप ऊपर से देख सकते हैं कि प्रत्येक इनपुट सुविधा लिए एक
अलग वेट और ये भार सभी तरीकों से
स्वतंत्र हैं । इससे हम यह निष्कर्ष निकाल सकते हैं कि
सुविधाओं के बीच कोई पैरामीटर साझा नहीं है ।
xwNx⋅w wixi
क्या रेखीय क्लासिफायर कक्षाओं के बीच मापदंडों को साझा करते हैं?
इस स्थिति में एक अदिश राशि है, हालाँकि लंबाई का एक वेक्टर है (जहाँ कक्षाओं की संख्या है)। इससे निपटने के लिए, लॉजिस्टिक रिग्रेशन अनिवार्य रूप से प्रत्येक कक्षाओं के लिए एक अलग आउटपुट पैदा करता है । प्रत्येक आउटपुट एक स्केलर और कक्षा से संबंधित की संभावना से मेल खाता है ।y M M y j M Y j ∈ [ 0 , 1 ] x jxyMMyjMyj∈[0,1]xj
y^=w⋅x+b,wherey^=y^1,y^2,...,yM
इसके बारे में सोचने का सबसे आसान तरीका है सरल स्वतंत्र लॉजिस्टिक रेजिमेंट जिनमें से प्रत्येक का एक आउटपुट है:M
y^j=σ(wj⋅x+bj)
ऊपर से यह स्पष्ट है कि विभिन्न वर्गों के बीच कोई भी वजन साझा नहीं किया जाता है ।
बहु-सुविधा और बहु-वर्ग :
उपरोक्त दो मामलों को मिलाकर हम अंत में कई विशेषताओं और कई वर्गों के सबसे सामान्य मामले तक पहुंच सकते हैं:
y एमxएनबीएमडब्ल्यू(एन×एम)
y^=σ(W⋅x+b)
जहां आकार वाला एक वेक्टर है , एक वेक्टर है, जिसका आकार एक वेक्टर है , , आकार के साथ एक वेक्टर है और आकार के साथ एक मैट्रिक्स है ।
y^MxNbMW(N×M)
किसी भी मामले में, रैखिक क्लासीफायर सुविधाओं या कक्षाओं के बीच किसी भी पैरामीटर को साझा नहीं करते हैं ।
अपने दूसरे सवाल का जवाब करने के लिए, रैखिक classifiers एक अंतर्निहित धारणा है कि सुविधाओं स्वतंत्र होने की जरूरत है लेकिन यह है, नहीं क्या कागज के लेखक कहते हैं कि करने के उद्देश्य से।