डूडा एट अल के पैटर्न वर्गीकरण में कोई मुफ्त लंच प्रमेय समझना


12

मेरे पास डूडा, हार्ट और स्टॉर्क के पैटर्न क्लासिफिकेशन में किसी भी क्लासिफायर के इनहेरेंट सुपीरियरिटी के सेक्शन 9.2 लैक में इस्तेमाल किए गए नोटिफिकेशन के बारे में कुछ सवाल हैं । पहले मुझे पुस्तक से कुछ प्रासंगिक पाठ उद्धृत करने दें:

  • सादगी के लिए एक दो-श्रेणी की समस्या पर विचार करें, जहां प्रशिक्षण सेट में पैटर्न और संबंधित श्रेणी के लेबल लिए को ज्ञात किए जाने वाले अज्ञात लक्ष्य फ़ंक्शन द्वारा उत्पन्न किया गया है, , जहां ।Dxiyi=±1i=1,...,nF(x)yi=F(xi)
  • Let निरूपित परिकल्पना, या मापदंडों के संभव सेट की (असतत) सेट सीखना पड़ता। एक विशेष परिकल्पना एक कार्यात्मक नेटवर्क में मात्रात्मक भार, या एक कार्यात्मक मॉडल में पैरामीटर 0, या एक पेड़ में निर्णय के सेट द्वारा वर्णित किया जा सकता है, और इसी तरह।Hh(x)H
  • इसके अलावा, पूर्व संभावना है कि एल्गोरिथ्म प्रशिक्षण के बाद परिकल्पना उत्पादन करेगा ; ध्यान दें कि यह संभावना नहीं है कि सही है।P(h)hh
  • अगला, इस संभावना को दर्शाता है कि एल्गोरिथ्म डेटा पर प्रशिक्षित होने पर हाइपोथीसिस पैदा करेगा । नियतात्मक शिक्षण एल्गोरिदम जैसे निकटतम पड़ोसी और निर्णय पेड़, एक परिकल्पना को छोड़कर हर जगह शून्य होगा । स्टोकेस्टिक विधियों के लिए (जैसे कि यादृच्छिक प्रारंभिक भार से प्रशिक्षित तंत्रिका नेटवर्क), या स्टोकेस्टिक बोल्ट्जमैन शिक्षण, एक व्यापक वितरण हो सकता है।P(h|D)hDP(h|D)hP(h|D)
  • शून्य-एक या अन्य हानि फ़ंक्शन के लिए त्रुटि होने दें ।E

जब सही फ़ंक्शन और वें उम्मीदवार के लिए एल्गोरिथ्म सीखने की संभावना है , तो अपेक्षित ऑफ़-ट्रेनिंग-सेट क्लासिफिकेशन त्रुटि द्वारा दी गई हैF(x)kPk(h(x)|D)

Ek(E|F,n)=xDP(x)[1δ(F(x),h(x))]Pk(h(x)|D)

प्रमेय 9.1। (नो फ्री लंच) किसी भी दो लर्निंग एल्गोरिदम और , निम्नलिखित सही हैं, सैंपलिंग डिस्ट्रीब्यूशन और प्रशिक्षण बिंदुओं की संख्या से स्वतंत्र हैं :P1(h|D)P2(h|D)P(x)n

  1. सभी लक्षित कार्यों पर समान रूप से औसतन ,FE1(E|F,n)E2(E|F,n)=0

  2. किसी निश्चित प्रशिक्षण सेट , , पर समान रूप से औसतनDFE1(E|F,D)E2(E|F,D)=0

भाग 1 वास्तव में कह रहा है

FDP(D|F)[E1(E|F,n)E2(E|F,n)]=0

भाग 2 वास्तव में कह रहा है

F[E1(E|F,D)E2(E|F,D)]=0

मेरे सवाल हैं

  1. के सूत्र में , यानी क्या मैं को बदल सकता हूं और इसे बाहर ले जा सकता हूं। , क्योंकि यह वास्तव में की एक वितरण है से अधिक दिया के लिए वें स्टोकेस्टिक सीखने एल्गोरिथ्म?Ek(E|F,n)
    Ek(E|F,n)=xDP(x)[1δ(F(x),h(x))]Pk(h(x)|D),
    Pk(h(x)|D)Pk(h|D)xDhHDk
  2. यह देखते हुए कि वें उम्मीदवार सीखने का एल्गोरिथ्म एक स्टोकेस्टिक विधि है, क्यों के सूत्र में , पर कोई योग नहीं है , अर्थात ?kEk(E|F,n)hhH
  3. कैसे एक-दूसरे से अलग हो रहे हैं और ?Ei(E|F,D)Ei(E|F,n)

    क्या अर्थ है ऑफ़-ट्रेनिंग एरर रेट, ट्रेनिंग सेट ?Ei(E|F,D)D

    क्या अर्थ है ऑफ-ट्रेनिंग एरर रेट, ट्रेनिंग सेट दिए गए सभी प्रशिक्षण सेटों पर औसत ? यदि हाँ, तो क्यों एनएफएल प्रमेय औसत में भाग 1 आता है प्रशिक्षण सेट पर फिर से लिखकर , और क्यों फॉर्मूला में , प्रशिक्षण आकार दिए गए सभी प्रशिक्षण सेट पर कोई औसत नहीं है ?Ei(E|F,n)nEi(E|F,n)DEk(E|F,n)n

  4. एनएफएल प्रमेय के भाग 1 में, निश्चित प्रशिक्षण आकार साथ सभी प्रशिक्षण सेटों पर योग मतलब है ?Dn
  5. यदि आगे भाग 1 में प्रशिक्षण आकार में सभी संभावित मानों को जाता है, तो परिणाम अभी भी 0, सही है?Nn
  6. के सूत्र में , अगर मैं को to , अर्थात आवश्यक रूप से प्रशिक्षण सेट के बाहर होने के लिए प्रतिबंधित नहीं है, तो दोनों भागों में होगा एनएफएल प्रमेय अभी भी सच है?Ek(E|F,n)xDxx
  7. यदि और बीच वास्तविक संबंध को नियतात्मक कार्य रूप में नहीं माना जाता है , लेकिन इसके बजाय सशर्त वितरण , या एक संयुक्त वितरण जो समकक्ष है। और जानना मेरा दूसरा प्रश्न भी देखें ), तो मैं को be कर सकता हूँ। (विचित्र भाग 1 और 2 में बताया गया है। क्या एनएफएल प्रमेय में दो हिस्से अभी भी सही हैं?xyFy=F(x)P(y|x)P(x,y)P(y|x)P(x)Ek(E|F,n)
    Ek(E|P(x,y),n)=Ex,y[1δ(y,h(x))]Pk(h(x)|D)
    Pk(h(x)|D)

सादर धन्यवाद!


है डिराक / क्रोनेकर-डेल्टा? Inδ
Ek(E|F,n)=xDP(x)[1δ(F(x),h(x))]Pk(h(x)|D)

क्या यह कोई फ्री लंच प्रमेय हैल्टिंग समस्या के समान नहीं है? क्या वे जुड़े हुए हैं?

जवाबों:


6

मैं उन सवालों के जवाब दूंगा जो मुझे लगता है कि मुझे जवाब पता है।

  1. यह उत्तर नहीं है क्योंकि आप एक ऐसे को चुन रहे हैं जो फिट सेट का हिस्सा नहीं था और इसलिए पर निर्भर करता है ।xDhx
  2. h का मूल्यांकन अपेक्षित त्रुटि दर प्राप्त करने के लिए परीक्षण सेट में मान पर किया जाता है, इसलिए इसका मूल्यांकन पूरे सेट पर नहीं किया जाता है, लेकिन केवल परीक्षण सेट में के असतत सेट पर होता है ।xHx
  3. Ei(E|F,D) बंद प्रशिक्षण सेट त्रुटि दी समारोह दर की उम्मीद है और प्रशिक्षण सेट । लेकिन मुझे लगता है कि अलग है क्योंकि आप केवल प्रशिक्षण बिंदुओं की संख्या पर कंडीशनिंग कर रहे हैं और वास्तविक मान नहीं। लेकिन बाद के बयानों को देखते हुए यह हैरान करने वाला है।FDEi(E|F,n)nx
  4. D प्रशिक्षण वैक्टर का सेट है। हैं में प्रशिक्षण वैक्टर । तो आप में तय प्रशिक्षण वैक्टर पर योग कर रहे हैं । केवल एक सेट ।nDnDD
  5. मुझे लगता है कि 5 का जवाब नहीं है। संकेतन थोड़ा भ्रामक लगता है।

6 और 7 पर टिप्पणी नहीं कर सकते।


2
+1। साइट पर आपका स्वागत है, मैं अमेज़न पर आपकी समीक्षाओं का बहुत बड़ा प्रशंसक हूं। संपादन में मेरे अनुमान को माफ करें, गणितीय संकेतन ज्यादातर किसी चीज के दोनों ओर $ लगाकर किया जाता है। यदि आप पीले-सर्कल पर क्लिक करें- लिखते समय ऊपरी दाएं में, आपको "उन्नत सहायता" के लिए एक लिंक दिखाई देगा, जो अधिक जानकारी देगा; इसके अलावा, आप कुछ मौजूदा मैथजैक्स (जैसे उपरोक्त में से कोई भी) पर राइट-क्लिक कर सकते हैं और यह देखने के लिए "शो मैथ अस -> टीएक्सएक्स कमांड" का चयन करें कि यह कैसे किया गया था।
गूँग - मोनिका

2
दूसरे शब्दों में, @gung कह रहा है: इस साइट का समर्थन करता है में (लगभग) सटीक रूप से आपकी करने के लिए उम्मीद थी, प्रदर्शन गणित भी शामिल है। साइट पर आपका स्वागत है। LATEX
कार्डिनल

@ मिचेल कृपया मुझे इन अन्य लोगों में अपना स्वागत जोड़ने की अनुमति दें: मैं आपको यहां देखकर प्रसन्न हूं। (माइकल अमेरिकी सांख्यिकीय एसोसिएशन चर्चा सूचियों पर असाधारण जानकार योगदान दिया है।)
whuber
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.