पीएसी सीखने के सिद्धांत का क्या अर्थ है?


15

मैं मशीन लर्निंग में नया हूं। मैं मशीन लर्निंग (स्टैनफोर्ड यूनिवर्सिटी) में एक पाठ्यक्रम का अध्ययन कर रहा हूं और मुझे समझ में नहीं आया कि इस सिद्धांत का क्या मतलब है और इसकी उपयोगिता क्या है। मैं सोच रहा हूं कि क्या कोई मेरे लिए इस सिद्धांत का विस्तार कर सकता है।

यह सिद्धांत इसी समीकरण पर आधारित है। यहाँ छवि विवरण दर्ज करें


2
PAC का अर्थ संभवतः लगभग सही है।
मार्क क्लेसेन

@MarcClaesen, क्या मैं इसे इस तरह समझा सकता हूं: "इसका मतलब है कि मशीन सीखने के दृष्टिकोण किसी दिए गए समस्या के लिए प्रायिकता समाधान प्रदान करते हैं और यह समाधान लगभग सही हो जाता है"
बेटर गेम मार्क 22'15

1
यहाँ एक मजेदार लिंक है: autonlab.org/tutorials/pac.html या यह: autonlab.org/_media/tutorials/pac05.pdf
EngrStudent -

जवाबों:


16

संभवतः लगभग सही (पीएसी) सीखने का सिद्धांत यह विश्लेषण करने में मदद करता है कि क्या और किन परिस्थितियों में एक शिक्षार्थी लगभग एक सही वर्गीकरण का उत्पादन करेगा। (आप कुछ स्रोतों को L की जगह A का उपयोग करते देखेंगे ।)LAL

hHϵ,0ϵ12.errorD(h)<ϵD

L1δ0δ12

यह जानते हुए कि एक लक्ष्य अवधारणा पीएसी-शिक्षाप्रद है जो आपको नमूना आकार को बाध्य करने की अनुमति देती है ताकि संभवतः लगभग सही क्लासिफायरियर सीख सकें, जो कि आपके द्वारा पुन: प्रस्तुत किए गए सूत्र में दिखाया गया है:

m1ϵ(ln|H|+ln1δ)

mH

अधिक के लिए, यह और अन्य संबंधित वीडियो सहायक हो सकते हैं , उदाहरण के लिए, यह लंबा परिचय या कई मशीन सीखने वाले ग्रंथों में से एक हो सकता है , मिशेल कहते हैं ।


यह एक प्रकार का उत्तर है जिसे मैं लंबे समय से देख रहा था; दोनों सरल अभी तक ध्वनि। हालांकि कई स्रोत एक व्यापक उत्तर प्रदान करेंगे, यह एक त्वरित संदर्भ के लिए पसंद नहीं है।
04बे इसाक

4


(xi,yi)xiyix~y~
हालांकि 1,000,000। यदि आपको अनुक्रम 1,2,3 दिया गया था, ... 999,999 एक सर्जन होगा कि अगला नंबर 1,000,000 है। हालाँकि अगली संख्या 999,999.5 या 5 भी हो सकती है। बिंदु यह है कि जितना अधिक डेटा कोई देखता है, उतना ही सुनिश्चित हो सकता है कि किसी ने एक सटीक मॉडल का उत्पादन किया है, लेकिन कोई भी कभी भी निश्चित नहीं हो सकता है।

xi,1imyifθfΘp>1δfΘϵ(δ,ϵ)(δ,ϵ) और परिकल्पना के दिए गए वर्ग कितने जटिल हैं।

Hfθ(ϵ,δ)0<ϵ,δ,<.5fΘx~,y~Err(fΘ(x~),y~)<ϵपी>1-δ=(δ,ε,एच)(Θ(एक्स~)-y~)2

(δ,ε)

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.