कम्प्यूटेशनल लर्निंग में, एनएफएल प्रमेय कहता है कि कोई सार्वभौमिक शिक्षार्थी नहीं है। प्रत्येक लर्निंग एल्गोरिदम के लिए, एक वितरण होता है जो सीखने वाले को उच्च त्रुटि के साथ एक बड़ी त्रुटि के साथ हाइपोटिस का कारण बनता है (हालांकि कम त्रुटि हाइपोटिस है)। निष्कर्ष यह है कि सीखने के लिए, हाइपोटिस क्लास या डिस्ट्रीब्यूशन को प्रतिबंधित करना होगा। अपनी पुस्तक "पैटर्न की मान्यता का एक संभाव्य सिद्धांत" में, देवरोए एट अल ने के-निकटतम पड़ोसियों के शिक्षार्थी के लिए निम्नलिखित थिरोम को साबित किया:
जहां
मान लें कि μ में घनत्व है। अगर k → ∞ और k / n → 0 फिर हर ϵ > 0 के लिए , वहाँ N है, सेंट सभी के लिए n > एन:पी(आरn-आर*> Ε ) < 2 ई एक्स पी ( -सीघnε2)
आर*बे-इष्टतम नियम की त्रुटि है , K-NN आउटपुट की सही त्रुटि है (संभावना आकार के प्रशिक्षण सेट से अधिक है ), इंस्टेंस स्पेस पर प्रायिकता उपाय है और कुछ स्थिर है जो केवल यूक्लिडियन आयाम पर निर्भर करता है। इसलिए, हम उतने ही करीब पहुंच सकते हैं जितना कि हम सबसे अच्छी परिकल्पना करना चाहते हैं (कुछ प्रतिबंधित वर्ग में सबसे अच्छा नहीं), बिना किसी धारणा के। तो मैं यह समझने की कोशिश कर रहा हूं कि यह परिणाम एनएफएल थिरेम का विरोध कैसे नहीं करता है? धन्यवाद!
आरnnμआरघसीघ