मेरे पास डूडा, हार्ट और स्टॉर्क के पैटर्न क्लासिफिकेशन में किसी भी क्लासिफायर के इनहेरेंट सुपीरियरिटी के सेक्शन 9.2 लैक में इस्तेमाल किए गए नोटिफिकेशन के बारे में कुछ सवाल हैं । पहले मुझे पुस्तक से कुछ प्रासंगिक पाठ उद्धृत करने दें:
- सादगी के लिए एक दो-श्रेणी की समस्या पर विचार करें, जहां प्रशिक्षण सेट में पैटर्न और संबंधित श्रेणी के लेबल लिए को ज्ञात किए जाने वाले अज्ञात लक्ष्य फ़ंक्शन द्वारा उत्पन्न किया गया है, , जहां ।
- Let निरूपित परिकल्पना, या मापदंडों के संभव सेट की (असतत) सेट सीखना पड़ता। एक विशेष परिकल्पना एक कार्यात्मक नेटवर्क में मात्रात्मक भार, या एक कार्यात्मक मॉडल में पैरामीटर 0, या एक पेड़ में निर्णय के सेट द्वारा वर्णित किया जा सकता है, और इसी तरह।
- इसके अलावा, पूर्व संभावना है कि एल्गोरिथ्म प्रशिक्षण के बाद परिकल्पना उत्पादन करेगा ; ध्यान दें कि यह संभावना नहीं है कि सही है।
- अगला, इस संभावना को दर्शाता है कि एल्गोरिथ्म डेटा पर प्रशिक्षित होने पर हाइपोथीसिस पैदा करेगा । नियतात्मक शिक्षण एल्गोरिदम जैसे निकटतम पड़ोसी और निर्णय पेड़, एक परिकल्पना को छोड़कर हर जगह शून्य होगा । स्टोकेस्टिक विधियों के लिए (जैसे कि यादृच्छिक प्रारंभिक भार से प्रशिक्षित तंत्रिका नेटवर्क), या स्टोकेस्टिक बोल्ट्जमैन शिक्षण, एक व्यापक वितरण हो सकता है।
- शून्य-एक या अन्य हानि फ़ंक्शन के लिए त्रुटि होने दें ।
जब सही फ़ंक्शन और वें उम्मीदवार के लिए एल्गोरिथ्म सीखने की संभावना है , तो अपेक्षित ऑफ़-ट्रेनिंग-सेट क्लासिफिकेशन त्रुटि द्वारा दी गई है
प्रमेय 9.1। (नो फ्री लंच) किसी भी दो लर्निंग एल्गोरिदम और , निम्नलिखित सही हैं, सैंपलिंग डिस्ट्रीब्यूशन और प्रशिक्षण बिंदुओं की संख्या से स्वतंत्र हैं :
सभी लक्षित कार्यों पर समान रूप से औसतन ,
किसी निश्चित प्रशिक्षण सेट , , पर समान रूप से औसतन
भाग 1 वास्तव में कह रहा है
भाग 2 वास्तव में कह रहा है
मेरे सवाल हैं
- के सूत्र में , यानी क्या मैं को बदल सकता हूं और इसे बाहर ले जा सकता हूं। , क्योंकि यह वास्तव में की एक वितरण है से अधिक दिया के लिए वें स्टोकेस्टिक सीखने एल्गोरिथ्म?
- यह देखते हुए कि वें उम्मीदवार सीखने का एल्गोरिथ्म एक स्टोकेस्टिक विधि है, क्यों के सूत्र में , पर कोई योग नहीं है , अर्थात ?
कैसे एक-दूसरे से अलग हो रहे हैं और ?
क्या अर्थ है ऑफ़-ट्रेनिंग एरर रेट, ट्रेनिंग सेट ?
क्या अर्थ है ऑफ-ट्रेनिंग एरर रेट, ट्रेनिंग सेट दिए गए सभी प्रशिक्षण सेटों पर औसत ? यदि हाँ, तो क्यों एनएफएल प्रमेय औसत में भाग 1 आता है प्रशिक्षण सेट पर फिर से लिखकर , और क्यों फॉर्मूला में , प्रशिक्षण आकार दिए गए सभी प्रशिक्षण सेट पर कोई औसत नहीं है ?
- एनएफएल प्रमेय के भाग 1 में, निश्चित प्रशिक्षण आकार साथ सभी प्रशिक्षण सेटों पर योग मतलब है ?
- यदि आगे भाग 1 में प्रशिक्षण आकार में सभी संभावित मानों को जाता है, तो परिणाम अभी भी 0, सही है?
- के सूत्र में , अगर मैं को to , अर्थात आवश्यक रूप से प्रशिक्षण सेट के बाहर होने के लिए प्रतिबंधित नहीं है, तो दोनों भागों में होगा एनएफएल प्रमेय अभी भी सच है?
- यदि और बीच वास्तविक संबंध को नियतात्मक कार्य रूप में नहीं माना जाता है , लेकिन इसके बजाय सशर्त वितरण , या एक संयुक्त वितरण जो समकक्ष है। और जानना मेरा दूसरा प्रश्न भी देखें ), तो मैं
को be कर सकता हूँ। (विचित्र भाग 1 और 2 में बताया गया है। क्या एनएफएल प्रमेय में दो हिस्से अभी भी सही हैं?
सादर धन्यवाद!