k-nearest-neighbour पर टैग किए गए जवाब

k-Nearest-Neighbour Classifiers ये क्लासिफायर मेमोरी-आधारित हैं, और फिट होने के लिए किसी मॉडल की आवश्यकता नहीं है। क्वेरी बिंदु x0 को देखते हुए, हम k ट्रेनिंग पॉइंट्स x (r), r = 1, ..., k को x0 के निकटतम दूरी पर पाते हैं, और फिर k पड़ोसियों के बीच बहुमत वोट का उपयोग करके वर्गीकृत करते हैं।

3
इकाई गेंद से एन नमूनों की उत्पत्ति के लिए निकटतम निकटतम बिंदु के लिए सूत्र की व्याख्या
में सांख्यिकीय लर्निंग के तत्वों , एक समस्या उच्च आयामी रिक्त स्थान का k- nn साथ प्रकाश डाला मुद्दों के लिए शुरू की है। कर रहे हैं डेटा बिंदुओं कि समान रूप से एक में वितरित कर रहे आयामी इकाई गेंद।पीNNNppp मूल से निकटतम डेटा बिंदु की औसत दूरी अभिव्यक्ति …

1
Kernelised k निकटतम पड़ोसी
मैं कर्नेल के लिए नया हूं और कर्नेल kNN की कोशिश करते हुए एक रोड़ा मारा है। प्रारंभिक मैं एक बहुपद कर्नेल का उपयोग कर रहा हूं: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d आपका विशिष्ट यूक्लिडियन kNN निम्नलिखित दूरी मीट्रिक का उपयोग करता है: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} …

3
हमें एक के-निकटतम पड़ोसी क्लासिफायर फिट करने की आवश्यकता क्यों है?
जैसा कि मैंने समझा, k-NN एक आलसी सीखने वाला एल्गोरिथ्म है और इसे प्रशिक्षण चरण की आवश्यकता नहीं है। तो हमें .fit()स्केलेर के साथ उपयोग करने की आवश्यकता क्यों है और जब हम इसका उपयोग करते हैं तो क्या होता है?

1
जेफ्रीस मैटूसिटा दूरी के पेशेवरों
मेरे द्वारा पढ़े जा रहे कुछ कागजों के अनुसार, जेफ़्रीज़ और माटूसिटा दूरी आमतौर पर उपयोग की जाती है। लेकिन मुझे इसके बारे में ज्यादा जानकारी नीचे के फॉर्मूले के अलावा नहीं मिली JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} यह वर्गमूल को छोड़कर यूक्लिडियन दूरी के समान है E (x, y) =∑ …

4
आयामीता का अभिशाप: केएनएन क्लासिफायरियर
मैं केविन मर्फी की किताब पढ़ रहा हूं: मशीन लर्निंग-ए प्रायिकेशनल पर्सपेक्टिव। पहले अध्याय में लेखक आयामीता के अभिशाप की व्याख्या कर रहा है और एक हिस्सा है जो मुझे समझ में नहीं आता है। एक उदाहरण के रूप में, लेखक बताता है: विचार करें कि डी-आयामी इकाई क्यूब के …

1
कुल-पास पड़ोसी का VC-Dimension
यदि कश्मीर द्वारा उपयोग किए जाने वाले प्रशिक्षण बिंदुओं की संख्या के बराबर है, तो k-निकटतम पड़ोसी एल्गोरिथम का VC-Dimension क्या है? संदर्भ: यह प्रश्न एक पाठ्यक्रम में पूछा गया था जिसे मैंने लिया था और वहां दिया गया उत्तर 0. मैं था, हालांकि, यह नहीं समझ पाया कि यह …

1
नो-फ्री-लंच प्रमेय और के-एनएन स्थिरता
कम्प्यूटेशनल लर्निंग में, एनएफएल प्रमेय कहता है कि कोई सार्वभौमिक शिक्षार्थी नहीं है। प्रत्येक लर्निंग एल्गोरिदम के लिए, एक वितरण होता है जो सीखने वाले को उच्च त्रुटि के साथ एक बड़ी त्रुटि के साथ हाइपोटिस का कारण बनता है (हालांकि कम त्रुटि हाइपोटिस है)। निष्कर्ष यह है कि सीखने …

2
निरंतर और बाइनरी चर के साथ के-निकटतम-पड़ोसी
मेरे पास कॉलम a b c(3 विशेषताओं) के साथ एक डेटा सेट है । aजबकि संख्यात्मक और निरंतर है bऔर cदो स्तरों के साथ प्रत्येक श्रेणीबद्ध हैं। मैं वर्गीकृत करने के लिए aऔर bपर K- निकटतम पड़ोसियों विधि का उपयोग कर रहा हूँ c। इसलिए, दूरियों को मापने में सक्षम …

4
KNN "मॉडल-आधारित" क्यों नहीं है?
ईएसएल अध्याय 2.4 रैखिक प्रतिगमन को "मॉडल-आधारित" के रूप में वर्गीकृत करने के लिए लगता है, क्योंकि यह मानता हैच( X ) ≈ एक्स ⋅ बीटाf(x)≈x⋅βf(x) \approx x\cdot\beta, जबकि के-निकटतम पड़ोसियों के लिए कोई समान सन्निकटन नहीं बताया गया है। लेकिन दोनों तरीकों के बारे में धारणा नहीं बना रहे …

4
10D MCMC श्रृंखला को देखते हुए, मैं R में इसके पोस्ट मोड (एस) को कैसे निर्धारित कर सकता हूं?
प्रश्न: 10 आयामी MCMC श्रृंखला के साथ, मान लें कि मैं आपको ड्रॉ का एक मैट्रिक्स सौंपने के लिए तैयार हूं: 10 मापदंडों (कॉलम) द्वारा 100,000 पुनरावृत्तियों (पंक्तियों), मैं पोस्टीरियर मोड्स को कैसे पहचान सकता हूं? मैं विशेष रूप से कई मोड से चिंतित हूं। पृष्ठभूमि:मैं खुद को एक कम्प्यूटेशनल …

1
KNN के साथ किस प्रकार के डेटा को सामान्य बनाना चाहिए?
मुझे पता है कि सामान्यीकरण के दो से अधिक प्रकार हैं। उदाहरण के लिए, 1- एक जेड-स्कोर या टी-स्कोर का उपयोग करके डेटा ट्रांसफ़ॉर्म करना। इसे आमतौर पर मानकीकरण कहा जाता है। 2- 0 और 1 के बीच मान रखने के लिए डेटा को परिवर्तित करना। यदि मुझे सामान्य करने …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.