सांख्यिकीय लर्निंग (हेस्टी, टिबरैनी और फ्रीडमैन) के तत्वों में अध्याय 3 को पढ़ने के बाद, मुझे आश्चर्य हुआ कि क्या इस प्रश्न के शीर्षक पर उद्धृत प्रसिद्ध संकोचन विधियों को लागू करना संभव है, जिसे एक सहसंयोजक संरचना दी गई है, अर्थात: न्यूनतम (शायद अधिक सामान्य) ) मात्रा
सामान्य बजाय यह मुख्य रूप से इस तथ्य से प्रेरित था कि मेरे विशेष आवेदन में, हमारे पास लिए अलग-अलग (और कभी-कभी एक सहसंयोजक संरचना का भी अनुमान लगाया जा सकता है) और मुझे इसमें शामिल करना अच्छा लगेगा उन्हें प्रतिगमन में। मैंने इसे रिज रिग्रेशन के लिए किया था: कम से कम पायथन / सी में इसे लागू करने के साथ, मैं देखता हूं कि उन मार्गों में महत्वपूर्ण अंतर हैं जो गुणांक का पता लगाते हैं, जो दोनों मामलों में क्रॉस-वैरिफिकेशन घटता की तुलना करते समय भी उल्लेखनीय है।
अब मैं जब कम से कम LASSO लागू करने के लिए कम से कम कोण प्रतिगमन के माध्यम से, लेकिन आदेश मैं पहली बार साबित होता है कि अपने सभी अच्छा गुण अभी भी मान्य हैं है यह करने के लिए में प्रयास करने के लिए तैयारी कर रहा था के बजाय । अब तक, मैंने ऐसा कोई काम नहीं देखा है जो वास्तव में यह सब करता हो, लेकिन कुछ समय पहले मैंने एक उद्धरण भी पढ़ा था जिसमें कहा गया था कि " जो लोग आंकड़े नहीं जानते हैं उन्हें इसे फिर से परिभाषित करने के लिए बर्बाद किया जाता है " (ब्रैड एफ्रॉन द्वारा), शायद? ), इसीलिए मैं यहां सबसे पहले पूछ रहा हूं (यह देखते हुए कि मैं सांख्यिकी साहित्य का एक नया नवागंतुक हूं): क्या यह पहले से ही इन मॉडलों के लिए कहीं है? क्या यह किसी तरह से आर में लागू किया गया है? ( बजाय को न्यूनतम करके रिज के समाधान और कार्यान्वयन को शामिल करें, जो कि आर में lm.ridge कोड में क्या लागू किया गया है)?
आपके जवाब के लिए पहले से ही धन्यवाद!