में सांख्यिकीय लर्निंग के तत्वों , एक समस्या उच्च आयामी रिक्त स्थान का k- nn साथ प्रकाश डाला मुद्दों के लिए शुरू की है। कर रहे हैं डेटा बिंदुओं कि समान रूप से एक में वितरित कर रहे आयामी इकाई गेंद।पी
मूल से निकटतम डेटा बिंदु की औसत दूरी अभिव्यक्ति द्वारा दी गई है:
जब , सूत्र गेंद के आधे त्रिज्या तक टूट जाता है, और मैं देख सकता हूं कि कैसे निकटतम बिंदु सीमा को रूप में देखता है , इस प्रकार उच्च आयामों में घुटने के पीछे अंतर्ज्ञान बनाते हैं। लेकिन मैं समझ नहीं पा रहा हूं कि फार्मूला एन पर निर्भरता क्यों है। क्या कोई स्पष्ट कर सकता है?पी → ∞
साथ ही पुस्तक इस मुद्दे को आगे बताते हुए कहती है: "... प्रशिक्षण नमूने के किनारों के पास भविष्यवाणी बहुत अधिक कठिन है। एक को पड़ोसी नमूना बिंदुओं से अलग करना चाहिए, न कि उनके बीच में अंतर करना चाहिए"। यह एक गहन कथन की तरह लगता है, लेकिन मैं इसका मतलब समझ नहीं सकता। क्या कोई फिर सकता है?