लेकिन यह वह नहीं है जो हम चाहते हैं। मेरा मतलब है कि यह हमें बहुसांस्कृतिकता की परेशानी से बचाता है, यह नहीं है।
हाँ! और नहीं। इलास्टिक नेट दो नियमितीकरण तकनीकों का एक संयोजन है, L2 नियमितीकरण (रिज रिग्रेशन में प्रयुक्त) और L1 नियमितीकरण (LASSO में प्रयुक्त)।
लैस्सो स्वाभाविक रूप से विरल मॉडल का उत्पादन करता है, अर्थात अधिकांश चर गुणांक 0 से सिकुड़ जाएंगे और प्रभावी रूप से मॉडल से बाहर कर दिए जाएंगे। तो कम से कम महत्वपूर्ण चर दूर हो जाते हैं, दूसरों को सिकोड़ने से पहले, रिज के विपरीत, जहां सभी चर सिकुड़ जाते हैं, जबकि उनमें से कोई भी वास्तव में 0 से सिकुड़ जाता है।
इलास्टिक नेट इन दोनों दृष्टिकोणों के एक रैखिक संयोजन का उपयोग करता है। विधि पर चर्चा करते समय हस्ती द्वारा उल्लेखित विशिष्ट मामला बड़े पी, छोटे एन के मामले में था। जिसका अर्थ है: उच्च आयामी डेटा, अपेक्षाकृत कम अवलोकन। इस मामले में LASSO (कथित तौर पर) केवल सबसे अधिक n चरों पर चयन करेगा, जबकि बाकी सभी को समाप्त करते हुए, जस्टी द्वारा पेपर देखें ।
यह हमेशा वास्तविक डेटासेट पर निर्भर करेगा, लेकिन आप अच्छी तरह से कल्पना कर सकते हैं कि आप हमेशा अपने मॉडल में चर की संख्या पर ऊपरी सीमा नहीं रखना चाहते हैं जो आपकी टिप्पणियों की संख्या से बराबर या उससे कम है।