K- साधन और K- निकटतम पड़ोसियों के बीच मुख्य अंतर क्या हैं?


86

मुझे पता है कि k- साधन अनसुना है और क्लस्टरिंग आदि के लिए उपयोग किया जाता है और k-NN की देखरेख की जाती है। लेकिन मैं दोनों के बीच ठोस अंतर जानना चाहता था?


1
एक संक्षिप्त तुलना: baoqiang.org/?p=579
फ्रेंक डर्नोनकोर्ट

जवाबों:


106

ये पूरी तरह से अलग तरीके हैं। तथ्य यह है कि उन दोनों के नाम में K अक्षर है, एक संयोग है।

K- साधन एक क्लस्टरिंग एल्गोरिथ्म है जो K सेट (क्लस्टर) में बिंदुओं के एक सेट को विभाजित करने का प्रयास करता है जैसे कि प्रत्येक क्लस्टर में बिंदु एक-दूसरे के पास होते हैं। यह बिना किसी बाहरी वर्गीकरण के होने के कारण इसका उपयोग नहीं किया गया है।

K- निकटतम पड़ोसी एक वर्गीकरण (या प्रतिगमन) एल्गोरिथ्म है जो एक बिंदु के वर्गीकरण को निर्धारित करने के लिए, K निकटतम बिंदुओं के वर्गीकरण को जोड़ता है। इसकी देखरेख की जाती है क्योंकि आप अन्य बिंदुओं के ज्ञात वर्गीकरण के आधार पर एक बिंदु को वर्गीकृत करने का प्रयास कर रहे हैं।


6
मुझे लगता है कि इस आदमी को श्रेय देने की तुलना में अधिक समानता है। वे दोनों दूरी विधियों का उपयोग क्लस्टर के लिए करते हैं और क्रमशः इनपुट को वर्गीकृत करते हैं। यह अक्सर यही कारण है कि उन्हें एक साथ पढ़ाया जाता है, और उनके संबंध में आयामी मुद्दों पर चर्चा क्यों की जाती है। दोनों के लिए विभिन्न दूरी विधियां लागू की जा सकती हैं। वास्तव में बहुत सारी समानताएं हैं।
eljusticiero67

@ eljusticiero67 बेशक वे इनपुट वर्गीकृत करने के लिए उपयोग किया जाता है, यह ओपी द्वारा उल्लेख किया गया है। और अधिकांश शास्त्रीय सीखने के तरीके दूरी आधारित हैं, इसलिए यह भी आश्चर्य की बात नहीं है। ध्यान दें कि ओपी मतभेदों में रुचि रखते थे। मुझे यह भी समझ में आया कि यद्यपि ओपी का अर्थ था कि दोनों नामों में K के कारण समानता हो सकती है।
बिटवाइज

12

जैसा कि उनके उत्तर में बिटवाइज़ ने कहा है , k- साधन एक क्लस्टरिंग एल्गोरिथ्म है। यदि यह k- निकटतम पड़ोसियों (k-NN) की बात आती है, तो शब्दावली थोड़ी अस्पष्ट है:

  • वर्गीकरण के संदर्भ में, यह एक वर्गीकरण एल्गोरिथ्म है, जैसा कि उपरोक्त उत्तर में भी उल्लेख किया गया है

  • सामान्य तौर पर यह एक समस्या है , जिसके लिए विभिन्न समाधान (एल्गोरिदम) मौजूद हैं

इसलिए पहले संदर्भ में, "के-एनएन क्लासिफायर" कहने का मतलब वास्तव में विभिन्न अंतर्निहित ठोस एल्गोरिदम हो सकते हैं जो कि के-एनएन समस्या को हल करते हैं, और उनका परिणाम वर्गीकरण के उद्देश्य से व्याख्या किया जाता है।

ये दो अलग बातें हैं, लेकिन आप यह दिलचस्प है कि के-साधन एल्गोरिथ्म k-एनएन समस्या (मेरियस Muja और डेविड जी लोव, को सुलझाने के लिए विभिन्न संभव तरीकों में से एक है मिल सकती है "स्वचालित एल्गोरिथ्म विन्यास के साथ तेजी से लगभग निकटतम पड़ोसियों" , में कंप्यूटर विज़न सिद्धांत और अनुप्रयोग पर अंतर्राष्ट्रीय सम्मेलन (VISAPP'09), 2009 पीडीएफ )


0

आपके पास पर्यवेक्षित के-साधन हो सकते हैं। आप अपने लेबल किए गए डेटा के आधार पर सेंट्रोइड्स (k- साधनों में) बना सकते हैं। कुछ भी आपको रोकता नहीं है। यदि आप इसे सुधारना चाहते हैं, तो यूक्लिडियन स्पेस और यूक्लिडियन दूरी आपको सर्वोत्तम परिणाम प्रदान नहीं कर सकती है। आपको अपना स्थान चुनने की आवश्यकता होगी (उदाहरण के लिए रीमानियन स्पेस हो सकता है) और बिंदुओं के बीच की दूरी को परिभाषित करें (और यहां तक ​​कि "बिंदु" को परिभाषित करें)। अंतिम दो शोध के विषय हैं और वे आपके पास मौजूद डेटा (सिग्नल) के प्रकार (गुण) पर भी निर्भर करते हैं।


-2

K- साधन पड़ोसी नोड्स के लिए क्लस्टर जानकारी बना सकता है जबकि KNN किसी दिए गए पड़ोसी नोड के लिए क्लस्टर नहीं ढूँढ सकता है।


-2

k मतलब वास्तविक वर्गीकरण चरण में knn तैनात होने से पहले प्रशिक्षण चरण के रूप में इस्तेमाल किया जा सकता है। K का अर्थ है प्रत्येक वर्ग से संबंधित नमूनों के केंद्रक और वर्ग लेबल द्वारा प्रस्तुत कक्षाएं। knn इन मापदंडों के साथ-साथ k नंबर का उपयोग एक अनदेखे नए नमूने को वर्गीकृत करने के लिए करता है और K मतलब एल्गोरिथ्म द्वारा बनाए गए k कक्षाओं में से एक को असाइन करता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.