K-NN के लिए, मैं 0 और 1 के बीच डेटा को सामान्य करने का सुझाव दूंगा ।01
एक्स1= ( एफ11, च21, । । । , चम1)एक्स2= ( एफ12, च22, । । । , चम2)चमैं1मैंएक्स1
घ( x)1, एक्स2) = ( च11- च12)2+ ( च21- च22)2+ । । । + ( चम1- चम2)2---------------------------------√
सभी के लिए आदेश में सुविधाओं के के होने की बराबर जब दूरी की गणना के महत्व, सुविधाओं चाहिए मूल्यों का एक ही श्रृंखला है। यह केवल सामान्यीकरण के माध्यम से प्राप्त करने योग्य है।
यदि उन्हें सामान्य नहीं किया गया था और उदाहरण के लिए फ़ीचर में मानों की एक सीमा थी [ 0 , 1 ), जबकि f 2 में [ 1 , 10 ) मानों की एक श्रृंखला थी । दूरी की गणना करते समय, दूसरा शब्द 10 होगाच1[ ० , १च2[ १ , १० )10 पहले की तुलना में गुना महत्वपूर्ण , जिससे की-एनएन पहले की तुलना में दूसरी विशेषता पर अधिक भरोसा करेगा। सामान्यीकरण यह सुनिश्चित करता है कि सभी सुविधाओं को समान मूल्यों की श्रेणी में मैप किया जाए ।
दूसरी ओर, मानकीकरण में कई उपयोगी गुण हैं, लेकिन यह सुनिश्चित नहीं कर सकता है कि सुविधाओं को एक ही श्रेणी में मैप किया जाए। जबकि मानकीकरण अन्य सहपाठियों के लिए सबसे उपयुक्त हो सकता है, यह k-NN या किसी अन्य दूरी-आधारित वर्गीकरण के लिए ऐसा नहीं है।