जब विभिन्न मॉडलों या चयन करने के लिए कई विशेषताओं के बीच चयन करने का प्रयास किया जाता है, तो कहें कि भविष्यवाणी मैं दो दृष्टिकोणों के बारे में सोच सकता हूं।
- डेटा को प्रशिक्षण और परीक्षण सेट में विभाजित करें। अभी भी बेहतर है, बूटस्ट्रैपिंग या के-गुना क्रॉस-सत्यापन का उपयोग करें। प्रत्येक बार प्रशिक्षण सेट पर ट्रेन करें और परीक्षण सेट पर त्रुटि की गणना करें। प्लॉट परीक्षण त्रुटि बनाम मापदंडों की संख्या। आमतौर पर, आपको ऐसा कुछ मिलता है:
- मापदंडों के मूल्यों को एकीकृत करके मॉडल की संभावना की गणना करें। अर्थात, कंप्यूट , और मापदंडों की संख्या के खिलाफ इस साजिश रचने। हम तो कुछ इस तरह से मिलता है:
तो मेरे सवाल हैं:
- क्या ये दृष्टिकोण इस समस्या को हल करने के लिए उपयुक्त हैं (यह तय करना कि आपके मॉडल में कितने पैरामीटर शामिल हैं, या कई मॉडलों में से किसी एक को चुनना है)?
- क्या वे समकक्ष हैं? शायद ऩही। क्या वे कुछ मान्यताओं के तहत या व्यवहार में एक ही इष्टतम मॉडल देंगे?
- बायेसियन मॉडल आदि में पूर्व ज्ञान को निर्दिष्ट करने के सामान्य दार्शनिक अंतर के अलावा, प्रत्येक दृष्टिकोण के पेशेवरों और विपक्ष क्या हैं? आपने किसे चुना?
अद्यतन: मैंने एआईसी और बीआईसी की तुलना पर संबंधित प्रश्न भी पाया । ऐसा लगता है कि मेरा तरीका 1 एआईसीएमटी के बराबर है और विधि 2 एसआईसीटी से संबंधित है। लेकिन मैंने यह भी पढ़ा कि बीआईसी लीव-वन-आउट सीवी के बराबर है। इसका मतलब यह होगा कि प्रशिक्षण की त्रुटि न्यूनतम और बेयसियन लिकेलिहुड अधिकतम हैं जहां एलओयू सीवी के-गुना सीवी के बराबर है। जून शाओ द्वारा शायद एक बहुत ही दिलचस्प पेपर " रेखीय मॉडल चयन के लिए एक विषम सिद्धांत " इन मुद्दों से संबंधित है।