आप कहते हैं कि एल्गोरिथ्म है: k- निकटतम पड़ोसी एल्गोरिथ्म जिसमें k = संख्या में प्रशिक्षण बिंदुओं का उपयोग किया गया है। मैं इसे jms-k-निकटतम-पड़ोसी के रूप में परिभाषित करता हूं ।
चूंकि VC आयाम प्रशिक्षण बिंदुओं की सबसे बड़ी संख्या है जो एल्गोरिथ्म द्वारा ट्रेन की त्रुटि 0 से बिखर सकती है , jms-k-निकटतम-पड़ोसी का VC आयाम केवल k या 0 हो सकता है।
1 प्रशिक्षण उदाहरण => k = 1: प्रशिक्षण के दौरान jms-1-निकटतम-पड़ोसी स्टोर बिल्कुल इसी उदाहरण। बिल्कुल उसी प्रशिक्षण सेट पर आवेदन के दौरान, एक उदाहरण संग्रहीत प्रशिक्षण उदाहरण के सबसे पास है (क्योंकि वे समान हैं), इसलिए प्रशिक्षण त्रुटि 0 है।
तो मैं मानता हूं, वीसी का आयाम कम से कम 1 है।
2 प्रशिक्षण उदाहरण => k = 2: लेबल भिन्न होने पर केवल एक समस्या हो सकती है। इस मामले में सवाल यह है कि क्लास लेबल के लिए निर्णय कैसे किया जाता है। अधिकांश मतों के परिणाम नहीं निकलते (VC = 0?), यदि हम दूरी से उल्टे बहुमत के वेट वोट का उपयोग करते हैं, तो वीसी आयाम 2 है (यह मानते हुए कि अलग-अलग लेबल के साथ दो बार एक ही प्रशिक्षण उदाहरण की अनुमति नहीं है, उस में सभी एल्गोरिदम का कुलपति आयाम 0 (मुझे लगता है) होगा।
कोई मानक k- निकटतम पड़ोसी एल्गोरिथ्म नहीं है, यह एक ही मूल विचार के साथ एक परिवार का अधिक है लेकिन कार्यान्वयन विवरणों की बात आने पर अलग-अलग स्वाद है।
उपयोग किए गए संसाधन: एंड्रयू मूर द्वारा कुलपति आयाम स्लाइड