|S∗|=∣∣{j:β∗j≠0}∣∣β∗|S∗|2p|S∗|(p|S∗|) मॉडल, जो बहुत कम है।
लैस्सो का सिद्धांत नियमितीकरण पैरामीटर पर निर्भर करता है पर्याप्त रूप से बड़ा होता है ताकि चयनित मॉडल को पर्याप्त रूप से विरल बनाया जा सके। यह हो सकता है कि आपकी 10 विशेषताएँ बहुत अधिक या बहुत कम हैं, क्योंकि यह पर एक निचली बाउंड को ऊपरी सीमा में बदलने के लिए तुच्छ नहीं है।λ | एस ∗ |λλ|S∗|
Let लिए हमारा डेटा-चालित अनुमान है , और । फिर, शायद आप यह सुनिश्चित करने की कोशिश कर रहे हैं कि ताकि आप कम से कम प्रासंगिक सुविधाओं को पुनर्प्राप्त कर सकें? या हो सकता है कि आप उस को स्थापित करने का प्रयास कर रहे हों ताकि आपको पता चले कि आपके द्वारा पाई गई विशेषताएं सभी सार्थक हैं? इन मामलों में, आपकी प्रक्रिया अधिक न्यायसंगत होगी यदि आपके पास के सापेक्ष आकारों की पूर्व सूचना थी । बीटा * एस ={jβ^β∗एस* ⊆ एस एस ⊆एस*एस*S^={j:β^j≠0}S∗⊆S^S^⊆S∗S∗
इसके अलावा, ध्यान दें, उदाहरण के लिए, लसो का प्रदर्शन करते समय, आप कुछ गुणांक को अनपेक्षित छोड़ सकते हैं glmnet
।