इन दोनों तरीकों (LASSO बनाम स्पाइक-एंड-स्लैब) की व्याख्या बायेसियन अनुमान समस्याओं के रूप में की जा सकती है जहां आप विभिन्न मापदंडों को निर्दिष्ट कर रहे हैं। मुख्य अंतरों में से एक यह है कि LASSO विधि पूर्व के लिए शून्य पर कोई बिंदु-द्रव्यमान नहीं डालती है (यानी, पैरामीटर लगभग निश्चित रूप से गैर-शून्य एक प्राथमिकता है), जबकि स्पाइक-एंड-स्लैब एक पर्याप्त बिंदु-द्रव्यमान डालता है शून्य पर।
मेरी विनम्र राय में, स्पाइक-एंड-स्लैब विधि का मुख्य लाभ यह है कि यह उन समस्याओं के लिए अच्छी तरह से अनुकूल है जहां मापदंडों की संख्या डेटा बिंदुओं की संख्या से अधिक है , और आप पूरी तरह से मापदंडों की एक बड़ी संख्या को समाप्त करना चाहते हैं। मॉडल से। क्योंकि यह विधि पूर्व में शून्य पर एक बड़े बिंदु-द्रव्यमान को लगाती है, यह पीछे के अनुमानों का उत्पादन करेगी जो केवल मापदंडों के एक छोटे अनुपात को शामिल करते हैं, उम्मीद है कि डेटा की अधिक-फिटिंग से बचते हैं।
जब आपका प्रोफेसर आपको बताता है कि पूर्व एक चर चयन विधि का प्रदर्शन नहीं कर रहा है, तो संभवतः उसका मतलब यह है। LASSO के तहत, प्रत्येक पैरामीटर लगभग निश्चित रूप से गैर-शून्य एक प्राथमिकता है (यानी, वे सभी मॉडल में हैं)। चूँकि पैरामीटर समर्थन पर संभावना भी गैर-शून्य है, इसका मतलब यह भी होगा कि प्रत्येक निश्चित रूप से गैर-शून्य एक प्राथमिकता है (यानी, वे सभी मॉडल में हैं)। अब, आप इसे एक परिकल्पना परीक्षण के साथ पूरक कर सकते हैं, और इस तरह से मॉडल से बाहर नियम बना सकते हैं, लेकिन यह बायेसियन मॉडल के शीर्ष पर लगाया गया एक अतिरिक्त परीक्षण होगा।
बायेसियन अनुमान के परिणाम डेटा से एक योगदान और पूर्व से एक योगदान को प्रतिबिंबित करेंगे। स्वाभाविक रूप से, एक पूर्व वितरण जो शून्य के आसपास अधिक बारीकी से केंद्रित है (जैसे स्पाइक-एंड-स्लैब) परिणामी पैरामीटर अनुमानकों को वास्तव में "कम" कर देगा, जो पहले से कम केंद्रित (LASSO की तरह) है। बेशक, यह "सिकुड़" केवल आपके द्वारा निर्दिष्ट पूर्व सूचना का प्रभाव है। पूर्व LASSO के आकार का मतलब है कि यह एक चापलूसी पूर्व के सापेक्ष सभी पैरामीटर अनुमानों को सिकोड़ रहा है।