इसका क्या मतलब है "सुविधाओं और वर्गों के बीच मापदंडों को साझा करें"


20

इस पत्र को पढ़ते समय एक पंक्ति होती है जो कहती है "रैखिक क्लासीफायर, सुविधाओं और कक्षाओं के बीच मापदंडों को साझा नहीं करते हैं।" इस कथन का अर्थ क्या है? क्या इसका मतलब है कि लॉजिस्टिक क्लासिफायर जैसे लॉजिस्टिक रिग्रेशन को उन विशेषताओं की आवश्यकता है जो पारस्परिक रूप से स्वतंत्र हैं?

जवाबों:


22

मैं लॉजिस्टिक रिग्रेशन के माध्यम से इस सवाल का जवाब देने की कोशिश करूंगा , सबसे सरल रैखिक क्लासिफायरियर में से एक।

रसद प्रतिगमन का सबसे सामान्य स्थिति अगर हम एक है द्विआधारी वर्गीकरण कार्य ( और केवल एक इनपुट सुविधा ( एक्स आर )। इस मामले में लॉजिस्टिक रिग्रेशन का आउटपुट होगा:y{0,1})xR

y^=σ(wx+b)
जहां और दोनों स्केलर हैं । मॉडल का आउटपुट इस संभावना से मेल खाता है कि कक्षा ।wbएक्स1y^[0,1]x1

हम वाक्यांश को तोड़ने की कोशिश करेंगे "रैखिक classifiers सुविधाओं और वर्गों के बीच मापदंडों को साझा नहीं करते हैं" दो भागों में। हम कई विशेषताओं और कई वर्गों के मामलों की अलग-अलग जांच करेंगे कि क्या लॉजिस्टिक रिग्रेशन उन कार्यों के लिए पैरामीटर साझा करता है:

क्या रेखीय क्लासीफायर सुविधाओं के बीच मापदंडों को साझा करते हैं?

इस मामले में, प्रत्येक उदाहरण के लिए, एक अदिश कि द्विआधारी मूल्यों (पहले की तरह) लेता है, जबकि एक है वेक्टर लंबाई के (जहां सुविधाओं की संख्या है)। यहां, आउटपुट इनपुट सुविधाओं का एक रैखिक संयोजन है (यानी इन सुविधाओं का एक भारित योग प्लस के आधार पर)।x yxएनNN

एक्स डब्ल्यू एन xडब्ल्यू डब्ल्यू मैं एक्स मैं

y^=σ(iN(wixi)+b)orσ(wx+b)
जहां और लंबाई वैक्टर हैं । उत्पाद एक अदिश उत्पादन करता है। जैसा कि आप ऊपर से देख सकते हैं कि प्रत्येक इनपुट सुविधा लिए एक अलग वेट और ये भार सभी तरीकों से स्वतंत्र हैं । इससे हम यह निष्कर्ष निकाल सकते हैं कि सुविधाओं के बीच कोई पैरामीटर साझा नहीं हैxwNxw wixi

क्या रेखीय क्लासिफायर कक्षाओं के बीच मापदंडों को साझा करते हैं?

इस स्थिति में एक अदिश राशि है, हालाँकि लंबाई का एक वेक्टर है (जहाँ कक्षाओं की संख्या है)। इससे निपटने के लिए, लॉजिस्टिक रिग्रेशन अनिवार्य रूप से प्रत्येक कक्षाओं के लिए एक अलग आउटपुट पैदा करता है । प्रत्येक आउटपुट एक स्केलर और कक्षा से संबंधित की संभावना से मेल खाता है ।y M M y j M Y j[ 0 , 1 ] x jxyMMyjMyj[0,1]xj

y^=wx+b,wherey^=y^1,y^2,...,yM

इसके बारे में सोचने का सबसे आसान तरीका है सरल स्वतंत्र लॉजिस्टिक रेजिमेंट जिनमें से प्रत्येक का एक आउटपुट है:M

y^j=σ(wjx+bj)

ऊपर से यह स्पष्ट है कि विभिन्न वर्गों के बीच कोई भी वजन साझा नहीं किया जाता है ।

बहु-सुविधा और बहु-वर्ग :

उपरोक्त दो मामलों को मिलाकर हम अंत में कई विशेषताओं और कई वर्गों के सबसे सामान्य मामले तक पहुंच सकते हैं:

y एमxएनबीएमडब्ल्यू(एन×एम)

y^=σ(Wx+b)
जहां आकार वाला एक वेक्टर है , एक वेक्टर है, जिसका आकार एक वेक्टर है , , आकार के साथ एक वेक्टर है और आकार के साथ एक मैट्रिक्स है ।y^MxNbMW(N×M)

किसी भी मामले में, रैखिक क्लासीफायर सुविधाओं या कक्षाओं के बीच किसी भी पैरामीटर को साझा नहीं करते हैं

अपने दूसरे सवाल का जवाब करने के लिए, रैखिक classifiers एक अंतर्निहित धारणा है कि सुविधाओं स्वतंत्र होने की जरूरत है लेकिन यह है, नहीं क्या कागज के लेखक कहते हैं कि करने के उद्देश्य से।


1
अच्छी व्याख्या। :)
आनंददीप भट्टाचार्जी
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.