समर्थन वेक्टर मशीनों और हाइपरप्लेन के लिए अंतर्ज्ञान


15

अपनी परियोजना में मैं द्विआधारी वर्गीकरण (1 या 0) की भविष्यवाणी के लिए एक लॉजिस्टिक रिग्रेशन मॉडल बनाना चाहता हूं।

मेरे पास 15 चर हैं, जिनमें से 2 श्रेणीगत हैं, जबकि बाकी निरंतर और असतत चर का मिश्रण हैं।

लॉजिस्टिक रिग्रेशन मॉडल फिट करने के लिए मुझे एसवीएम, परसेप्ट्रान या लीनियर प्रोग्रामिंग का उपयोग करके रैखिक पृथक्करण की जाँच करने की सलाह दी गई है। यह रैखिक पृथक्करण के परीक्षण के संबंध में यहाँ दिए गए सुझावों से जुड़ा हुआ है।

मशीन सीखने के लिए एक नौसिखिया के रूप में मैं ऊपर उल्लिखित एल्गोरिदम के बारे में बुनियादी अवधारणाओं को समझता हूं लेकिन वैचारिक रूप से मैं यह कल्पना करने के लिए संघर्ष करता हूं कि हम कैसे डेटा को अलग कर सकते हैं जिसमें मेरे मामले में 15 आयाम हैं अर्थात 15।

ऑनलाइन सामग्री में सभी उदाहरण आम तौर पर दो संख्यात्मक चर (ऊंचाई, वजन) का 2 डी प्लॉट दिखाते हैं जो श्रेणियों के बीच एक स्पष्ट अंतर दिखाते हैं और इसे समझना आसान बनाते हैं लेकिन वास्तविक दुनिया में डेटा आमतौर पर बहुत अधिक आयाम होता है। मैं आइरिस डेटासेट में वापस आ रहा हूं और तीन प्रजातियों के माध्यम से एक हाइपरप्लेन फिट करने की कोशिश कर रहा हूं और यह कैसे विशेष रूप से मुश्किल है अगर दो प्रजातियों के बीच ऐसा करना असंभव नहीं है, तो दो कक्षाएं अभी मुझसे बचती हैं।

यह कैसे प्राप्त होता है जब हमारे पास आयामों के उच्चतर आदेश होते हैं , तो क्या यह माना जाता है कि जब हम इस पृथक्करण को प्राप्त करने के लिए एक निश्चित संख्या से अधिक सुविधाओं का उपयोग करते हैं जो कि हम एक उच्च आयामी अंतरिक्ष में मैप करने के लिए कर्नेल का उपयोग करते हैं?

इसके अलावा रैखिक पृथक्करण के लिए परीक्षण करने के लिए क्या मीट्रिक का उपयोग किया जाता है? क्या यह एसवीएम मॉडल की सटीकता यानी भ्रम मैट्रिक्स पर आधारित सटीकता है?

इस विषय को बेहतर ढंग से समझने में किसी भी मदद की बहुत सराहना की जाएगी। इसके अलावा मेरे डेटासेट में दो चरों के एक भूखंड का एक नमूना है जो दिखाता है कि ये दो चर केवल अतिव्यापी कैसे हैं।

यहाँ छवि विवरण दर्ज करें


1
आपको लगता है कि आपकी पोस्ट में कई अलग-अलग प्रश्न छिड़ गए हैं। उन सभी को एक सूची में रखें या गैर-आवश्यक प्रश्नों को हटा दें। इससे ज्यादा लोग जवाब देने के लिए और सही उत्तर को आकर्षित
Aksakal

2
2 डी से उच्च आयामी स्थिति में जाने पर आमतौर पर अंतर्ज्ञान को कल्पना से बहुत मदद की आवश्यकता होती है, अक्सर, अंतर्ज्ञान पूरी तरह से टूट जाता है। कम आयामी समस्याओं के कई उच्च आयामी संस्करण हैं जो एक पूरी तरह से अलग दुनिया से संबंधित हैं, जहां चीजें अलग-अलग काम करती हैं, फ़र्मेट के प्रमेय के
अक्सकल

जवाबों:


14

मैं आपको कुछ समझ हासिल करने में मदद करने की कोशिश करने जा रहा हूं कि आयाम जोड़ने से दो वर्गों को अलग करने का एक रैखिक क्लासिफायरेटर बेहतर काम करने में मदद करता है।

कल्पना कीजिए कि आपके पास दो निरंतर भविष्यवाणियां हैं और एक्स 2 और एन = 3 , और हम एक द्विआधारी वर्गीकरण कर रहे हैं। इसका मतलब है कि हमारा डेटा कुछ इस तरह दिखता है:X1X2n=3

n = 3

अब कुछ बिंदुओं को कक्षा 1 और कुछ को कक्षा 2 में निर्दिष्ट करने की कल्पना करें। ध्यान दें कि हम किसी भी तरह से अंक प्रदान करने वाली कक्षाओं को नहीं देखते हैं, हम हमेशा दो वर्गों को अलग करने वाली एक रेखा खींच सकते हैं।

लेकिन अब हम कहते हैं कि हम एक नया बिंदु जोड़ते हैं:

एन = 4

अब इन बिंदुओं के असाइनमेंट दो वर्गों जैसे कि एक रेखा उन्हें पूरी तरह से अलग नहीं कर सकती है; इस तरह का एक असाइनमेंट फिगर में कलरिंग द्वारा दिया जाता है (यह एक XOR पैटर्न का एक उदाहरण है, जो क्लासीफायर का मूल्यांकन करते समय ध्यान में रखने के लिए बहुत उपयोगी है)। तो यह हमें दिखाता है कि पी = 2 के साथ कैसेp=2 चर के साथ हम किसी भी तीन (गैर-कोलीनियर) बिंदुओं को पूरी तरह से वर्गीकृत करने के लिए एक रैखिक क्लासिफायरियर का उपयोग कर सकते हैं, लेकिन हम सामान्य रूप से 4 गैर-कोलीनियर बिंदुओं को पूरी तरह से वर्गीकृत नहीं कर सकते हैं।

X3

पी = 3, एन = 4

p=3n=4 हम फिर से इन बिंदुओं के लिए वर्ग लेबल के किसी भी असाइनमेंट को पूरी तरह से वर्गीकृत कर सकते हैं।

pp+1

np

FnFnFFpFn=p+1Fpतब यह किसी भी संख्या में बिखर सकता है। बिखरने की यह धारणा, जो हमें संभावित क्लासिफायर के एक सेट की जटिलता के बारे में बताती है, सांख्यिकीय सीखने के सिद्धांत से आती है और इसका उपयोग ओवरफिटिंग की मात्रा के बारे में बयान देने के लिए किया जा सकता है जो कि क्लासिफायरियर का एक सेट कर सकता है। यदि आप इसमें रुचि रखते हैं तो मैं लक्सबर्ग और स्कोल्कोफ़ "सांख्यिकीय शिक्षण सिद्धांत: मॉडल, अवधारणाएं, और परिणाम" (2008) की सिफारिश करता हूं ।


आपकी विस्तृत प्रतिक्रिया के लिए बहुत धन्यवाद, इसने वास्तव में मुझे बहुआयामी सुविधाओं के विचार को समझने और उन्हें सहज रूप से अलग करने में बेहतर मदद की।
दगाट

7

जब आप कम आयामी रिक्त स्थान के बारे में अपने अंतर्ज्ञान लेते हैं और इसे उच्च आयामी रिक्त स्थान पर लागू करते हैं, तो गलती करना आसान है। इस मामले में आपका अंतर्ज्ञान बिल्कुल पीछे की ओर है। यह कम जगह में होने की तुलना में उच्च आयामी अंतरिक्ष में एक अलग हाइपरप्लेन को खोजने के लिए बहुत आसान हो जाता है।

यद्यपि किन्हीं दो जोड़े चर को देखते हुए, लाल और नीले रंग के वितरण अतिव्याप्त होते हैं, जब सभी 15 चर एक बार में देखते हैं तो यह बहुत संभव है कि वे ओवरलैप न हों।


2

आपके पास 15 चर हैं, लेकिन उनमें से सभी आपके आश्रित चर के भेदभाव के लिए समान रूप से महत्वपूर्ण नहीं हैं (उनमें से कुछ भी लगभग अप्रासंगिक हो सकते हैं)।

प्रिंसिपल कंपोनेंट एनालिसिस (पीसीए) उन 15 वेरिएबल्स के एक रेखीय आधार को फिर से तैयार करता है, और उन्हें इस तरह से ऑर्डर करता है, जैसे कि पहले कुछ कंपोनेंट्स आमतौर पर ज्यादातर वेरिएशन को समझाते हैं। तो यह आपको 2,3,4, या 5-आयामी समस्या को 15 आयामी समस्या को कम करने की अनुमति देता है। इसलिए यह प्लॉटिंग को अधिक सहज बनाता है; आम तौर पर आप संख्यात्मक (या उच्च-कार्डिनल ऑर्डिनल) चर के लिए दो या तीन अक्षों का उपयोग कर सकते हैं, फिर तीन अतिरिक्त आयामों के लिए मार्कर रंग, आकृति और आकार का उपयोग कर सकते हैं (शायद अधिक यदि आप कम-कार्डिनल ऑर्डिनल्स को जोड़ सकते हैं)। इसलिए 6 सबसे महत्वपूर्ण पीसी के साथ साजिश रचने से आपको अपने निर्णय की सतह का एक स्पष्ट दृश्य देना चाहिए।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.