प्रतिगमन के लिए चर चयन के लिए लैस्सो का उपयोग करने के क्या नुकसान हैं?


60

मुझे जो पता है, से चर चयन के लिए लासो का उपयोग करना सहसंबंधित इनपुट की समस्या को संभालता है। इसके अलावा, चूंकि यह लिस्ट एंगल रिग्रेशन के बराबर है, इसलिए यह कम्प्यूटेशनल रूप से धीमा नहीं है। हालाँकि, बहुत से लोग (उदाहरण के लिए मैं जिन लोगों को बायो-स्टैटिस्टिक्स के बारे में जानता हूं) वे अभी भी स्टेप वाइज या स्टेज वाइज चर चयन के पक्ष में हैं। क्या लैस्सो का उपयोग करने के कोई व्यावहारिक नुकसान हैं जो इसे प्रतिकूल बनाता है?


9
मुझे नहीं पता कि आपने कहाँ सुना है कि लास्सो कोलिनियरिटी की समस्या को संभालता है, यह बिल्कुल सच नहीं है।
मैक्रों

3
हॉर्सशू पूर्व मॉडल चयन के लिए LASSO से बेहतर है - कम से कम विरल मॉडल मामले में (जहां मॉडल चयन सबसे उपयोगी है)। आप इस लिंक में इन बिंदुओं की चर्चा पा सकते हैं । इस पत्र के लेखकों में से दो को वालेंसिया की बैठकों, बायेसियन स्टेटिस्टिक्स 9 "सिक्रिंक ग्लोबली एक्ट लोकल: स्पार्स बायेसियन रेगुलराइजेशन एंड प्रेडिक्शन" में एक समान लेख मिला। वालेंसिया लेख एक दंड ढांचे पर बहुत अधिक विस्तार में जाता है।
संभाव्यता

9
यदि आप केवल भविष्यवाणी में रुचि रखते हैं, तो मॉडल चयन में मदद नहीं मिलती है और आमतौर पर दर्द होता है (जैसा कि एक चर चयन के साथ द्विघात दंड = L2 मानदंड = रिज प्रतिगमन के विपरीत)। LASSO परिवर्तनीय चयन करने की कोशिश करने के लिए भविष्य कहनेवाला भेदभाव में एक कीमत का भुगतान करता है।
फ्रैंक हरेल

3
एक मनमाना निर्णय लेने के लिए सिक्का उछालना अक्सर यह दर्शाता है कि आप वास्तव में परिणाम की परवाह करते हैं। भविष्यवाणियों के चयन के बारे में आपके लिए निर्णय लेने की पेशकश करने वाली कोई भी विधि अक्सर यह स्पष्ट करती है कि आपके पास ऐसे विचार हैं जिनके बारे में पूर्वानुमानकर्ता मॉडल में स्वाभाविक रूप से अधिक हैं, ऐसे विचार जिन्हें आप अनदेखा नहीं करना चाहते हैं। LASSO की तरह काम कर सकते हैं।
निक कॉक्स

5
मैं दूसरा @ निक: "गाइड मॉडल चयन के लिए कोई सिद्धांत उपलब्ध नहीं है" शायद ही कभी यथार्थवादी हो। सामान्य ज्ञान सिद्धांत है।
Scortchi - मोनिका फिर से बहाल करें

जवाबों:


29

स्टेप वाइज सिलेक्शन करने का कोई कारण नहीं है। यह सिर्फ गलत है।

LASSO / LAR सर्वोत्तम स्वचालित विधियाँ हैं। लेकिन वे स्वचालित तरीके हैं। उन्होंने विश्लेषक को नहीं सोचने दिया।

कई विश्लेषणों में, कुछ चर महत्व के किसी भी माप के मॉडल क्षेत्र में होने चाहिए। कभी-कभी वे आवश्यक नियंत्रण चर होते हैं। अन्य बार, एक छोटा प्रभाव खोजना काफी महत्वपूर्ण हो सकता है।


43
"स्टेप वाइज सिलेक्शन करने का कोई कारण नहीं है। यह सिर्फ गलत है।" - लगभग कभी भी अविश्वसनीय रूप से व्यापक कथन नहीं होते हैं, जैसे कि संदर्भ से रहित, अच्छा सांख्यिकीय अभ्यास। अगर यहां कुछ भी "सिर्फ गलत" है, तो यह ऊपर का बोल्ड स्टेटमेंट है। यदि आपका विश्लेषण -values ​​या पैरामीटर अनुमानों (जैसे अनुमानित मॉडल) पर जोर नहीं दे रहा है, तो स्टेप वाइज वेरिएबल चयन कुछ करने के लिए एक समझदार चीज हो सकती है और :: हांफना :: कुछ मामलों में LASSO आउटपरफॉर्म। (पीटर, मुझे पता है कि हमारे पास यह कॉनवो पहले था - यह टिप्पणी एक भविष्य के पाठक पर अधिक निर्देशित है जो केवल इस पोस्ट पर आ सकती है और अन्य नहीं)। पी
मैक्रों

4
-1 स्टेप वाइज कंबल की आलोचना के कारण। यह "सिर्फ गलत" नहीं है, बल्कि नियतात्मक मॉडल खोज के रूप में एक जगह है। आप वास्तव में स्वचालित तरीकों के बारे में अपने बोनट में एक मधुमक्खी है।
probabilityislogic

8
@ एल्विस, मैं इस विषय का कोई विशेषज्ञ या स्टेप वाइज के लिए एक वकील नहीं हूँ; मैं केवल बयान की बिना शर्त प्रकृति के साथ मुद्दा उठा रहा हूं। लेकिन, जिज्ञासा से बाहर मैंने कुछ सरल सिमुलेशन किए और पाया कि जब आपके पास बड़ी संख्या में कोलीनियर प्रेडिक्टर्स होते हैं जो सभी के बराबर प्रभाव डालते हैं, तो बैकवर्ड सिलेक्शन आउट-ऑफ-सैंपल भविष्यवाणी के लिहाज से LASSO से बेहतर होता है। मैं प्रयोग किया जाता साथ ε ~ एन ( 0 , 1 )सी आर ( एक्स) के साथ भविष्यवक्ता सामान्य होते हैं
Yi=j=1100Xij+εi
εN(0,1)हर जोड़ी के लिए(j,k)cor(Xij,Xik)=1/2(j,k)
मैक्रो

10
किसी भी प्रतिगमन को शुरू करने से पहले आपको निश्चित रूप से कोलिनियरिटी की जांच करनी चाहिए। मैं कहूंगा कि यदि आपके पास बड़ी संख्या में कोलीनियर वैरिएबल हैं, तो आपको LASSO या स्टेप वाइज उपयोग नहीं करना चाहिए; आप या तो समरैखिकता समस्या का समाधान करना चाहिए (चर हटाने के लिए, और अधिक डेटा, आदि प्राप्त) या एक विधि (जैसे रिज प्रतिगमन) इस तरह की समस्याओं के लिए बनाया गया का उपयोग
पीटर Flom

5
ठीक है, आप सही हैं लेकिन मुझे नहीं लगता कि यह वास्तव में प्रासंगिक है। न तो पीछे की ओर NOR lasso (और न ही कोई चर चयन विधि) सभी समस्याओं को हल करती है। मॉडलिंग शुरू करने से पहले आपको कुछ चीजें करनी होंगी - और उनमें से एक है कोलीनियरिटी की जांच। मुझे इस बात की भी परवाह नहीं है कि अन्य डेटा सेटों के लिए किस चर चयन विधि ने काम किया है जो कि प्रतिगमन के नियमों का उल्लंघन करता है जो दोनों तरीकों को लागू करने के लिए है।
पीटर Flom

22

यदि आप केवल भविष्यवाणी त्रुटि के बारे में परवाह करते हैं और व्याख्यात्मकता, आकस्मिक-हस्तक्षेप, मॉडल-सरलता, गुणांक के परीक्षण आदि के बारे में परवाह नहीं करते हैं, तो आप अभी भी रैखिक प्रतिगमन मॉडल का उपयोग क्यों करना चाहते हैं?

आप निर्णय वृक्षों को बढ़ावा देने या वेक्टर प्रतिगमन का समर्थन करने जैसे कुछ का उपयोग कर सकते हैं और बेहतर भविष्यवाणी की गुणवत्ता प्राप्त कर सकते हैं और फिर भी दोनों उल्लिखित मामलों में ओवरफिटिंग से बच सकते हैं। हो सकता है कि सबसे अच्छी भविष्यवाणी की गुणवत्ता पाने के लिए लास्सो सबसे अच्छा विकल्प न हो।

यदि मेरी समझ सही है, तो लसो स्थितियों के लिए अभिप्रेत है जब आप अभी भी मॉडल में ही रुचि रखते हैं, केवल भविष्यवाणियाँ ही नहीं। वह है - चयनित चर और उनके गुणांक, किसी तरह से व्याख्या आदि देखें और इसके लिए - कुछ स्थितियों में लास्सो सबसे अच्छा विकल्प नहीं हो सकता है जैसा कि यहां अन्य प्रश्नों में चर्चा की गई है।


20

LASSO 0 से गुणांक के सिकुड़ने को प्रोत्साहित करता है, अर्थात आपके मॉडल से उन चर को छोड़ना। इसके विपरीत, रिज जैसी अन्य नियमितीकरण तकनीकें सभी प्रकारों को रखने की प्रवृत्ति रखती हैं।

इसलिए मैं इस बारे में सोचने की सलाह दूंगा कि क्या यह ड्रॉपिंग आपके डेटा के लिए मायने रखती है। उदाहरण के लिए, जीन माइक्रोएरे डेटा या कंपन स्पेक्ट्रोस्कोपिक डेटा पर नैदानिक ​​निदान परीक्षण स्थापित करने पर विचार करें।

  • आप प्रासंगिक जानकारी ले जाने के लिए कुछ जीनों की अपेक्षा करेंगे, लेकिन बहुत से अन्य जीन सिर्फ शोर बीट हैं। आपका आवेदन। उन चरों को छोड़ना एक पूरी तरह से समझदार विचार है।

  • इसके विपरीत, कंपन स्पेक्ट्रोस्कोपिक डेटा सेट (आमतौर पर माइक्रोएरे डेटा की तुलना में समान आयाम वाले) स्पेक्ट्रम के बड़े हिस्सों (सहसंबंध) पर प्रासंगिक जानकारी "स्मियर" करते हैं। इस स्थिति में, नियमित रूप से चर छोड़ने के लिए पूछना विशेष रूप से समझदार दृष्टिकोण नहीं है। जितना अधिक हो, पीएलएस जैसी अन्य नियमितीकरण तकनीकों को इस प्रकार के डेटा के लिए अधिक अनुकूलित किया जाता है।

सांख्यिकीय लर्निंग के तत्व LASSO की एक अच्छी चर्चा करते हैं, और इसे अन्य नियमितीकरण तकनीकों के विपरीत बनाते हैं।


14

अगर दो भविष्यवक्ता अत्यधिक सहसंबद्ध हैं तो LASSO एक के बजाय मनमाने ढंग से गिर सकता है। यह बहुत अच्छा नहीं है जब आप एक आबादी के लिए भविष्यवाणियाँ करना चाहते हैं जहाँ उन दो भविष्यवक्ताओं को अत्यधिक सहसंबद्ध नहीं किया जाता है, और शायद उन परिस्थितियों में रिज प्रतिगमन को प्राथमिकता देने का एक कारण है।

आप भविष्यवक्ताओं के मानकीकरण के बारे में भी सोच सकते हैं (कहने के लिए कि जब गुणांक "बड़े" या "छोटे" होते हैं) बल्कि मनमाने ढंग से और मेरे जैसे हैरान हो जाते हैं (जैसे कि) श्रेणीबद्ध भविष्यवक्ताओं के मानकीकरण के बारे में।


1
इस उत्तर के लिए धन्यवाद। क्या आप किसी भी पेपर को जानते हैं जो सहसंबद्ध भविष्यवक्ताओं / श्रेणीबद्ध भविष्यवक्ताओं के साथ मुद्दों पर चर्चा करते हैं?
बर्क यू।

2
इसके लायक यह है कि अन्य दंडित प्रतिगमन विधियां हैं जो उन मुद्दों (जैसे लोचदार नेट) को समाप्त करने का प्रयास करती हैं।
bdeonovic

अत्यधिक मिली-जुली चर के साथ परिवर्तनशील चयन करने के लिए, पुनरावृत्ति अनुकूली रिज (जो L0 दंड पैकेज में कार्यान्वित L0 दंडित प्रतिगमन और s का अनुमान लगाता है) सर्वश्रेष्ठ प्रदर्शन करने के लिए जाता है, या L0L2 दंड, जैसा कि L0Learn पैकेज में कार्यान्वित किया जाता है, भी अच्छा प्रदर्शन करता है ...
Tom Wenseleers

9

यदि आप उन मॉडलों पर विचार करने के लिए खुद को सीमित कर रहे हैं जो अनुमान किए जाने वाले मापदंडों में रैखिक हैं, तो लासो केवल उपयोगी है। एक अन्य तरीके से कहा गया है, लस्सो यह मूल्यांकन नहीं करता है कि क्या आपने स्वतंत्र और आश्रित चर के बीच संबंधों का सही रूप चुना है।

यह बहुत प्रशंसनीय है कि अनियंत्रित डेटा सेट में अशुभ, संवादात्मक या बहुपद प्रभाव हो सकते हैं। हालांकि, इन वैकल्पिक मॉडल विनिर्देशों का मूल्यांकन केवल तभी किया जाएगा जब उपयोगकर्ता उस विश्लेषण का संचालन करता है; लसो ऐसा करने के लिए एक विकल्प नहीं है।

यह कैसे गलत हो सकता है, इसके एक सरल उदाहरण के लिए, एक डेटा सेट पर विचार करें जिसमें स्वतंत्र चर के अंतर अंतराल पर निर्भर चर के उच्च और निम्न मूल्यों की भविष्यवाणी की जाएगी। यह पारंपरिक रैखिक मॉडल का उपयोग करके छंटनी करने के लिए चुनौतीपूर्ण होगा, क्योंकि विश्लेषण के लिए मौजूद प्रकट चर में रैखिक प्रभाव नहीं है (लेकिन प्रकट चर के कुछ परिवर्तन सहायक हो सकते हैं)। अपने प्रकट रूप में छोड़ दिया, लैस्सो गलत तरीके से निष्कर्ष निकालेगा कि यह सुविधा बाहरी है और इसके गुणांक से शून्य है क्योंकि कोई रैखिक संबंध नहीं है। दूसरी ओर, क्योंकि डेटा में अक्ष-संरेखित विभाजन होते हैं, एक यादृच्छिक जंगल जैसा एक पेड़-आधारित मॉडल शायद बहुत अच्छा करेगा।

यहाँ छवि विवरण दर्ज करें


5

लैसो और अन्य नियमितीकरण तकनीकों का एक व्यावहारिक नुकसान इष्टतम नियमितीकरण गुणांक, लैम्ब्डा का पता लगाना है। इस मान को खोजने के लिए क्रॉस वैलिडेशन का उपयोग करना स्टेप वाइज सिलेक्शन तकनीक की तरह ही महंगा हो सकता है।


"महंगे" से आपका क्या मतलब है?
mark999

4
यह दावा वास्तव में सही नहीं है। यदि आप "गर्म शुरुआत" ग्रिड खोज को ग्लोमनेट विधि के रूप में अपनाते हैं, तो आप पूरी ग्रिड को बहुत जल्दी से गणना कर सकते हैं।
probabilityislogic

1
@probabilityislogic सच है, मैंने उपरोक्त टिप्पणी करने के बाद केवल गर्म के बारे में पढ़ा। इस पेपर से आप क्या समझते हैं, जो संकेत करता है कि गर्म शुरुआत धीमी है और कभी-कभी सरल क्रॉस सत्यापन की तुलना में कम प्रभावी है? users.cis.fiu.edu/~lzhen001/activities/KDD2011Program/docs/…
rm999

5
λ

5

मैं एक LASSO विशेषज्ञ नहीं हूं, लेकिन मैं समय श्रृंखला में एक विशेषज्ञ हूं। यदि आपके पास समय श्रृंखला डेटा या स्थानिक डेटा है तो मैं स्वतंत्र रूप से एक समाधान से बचूंगा जो स्वतंत्र टिप्पणियों पर पहले से ही समर्पित था। इसके अलावा अगर कोई अज्ञात नियतात्मक प्रभाव है जो आपके डेटा (स्तर पारियों / समय के रुझान आदि) के साथ कहर ढाता है तो LASSO एक अच्छा हथौड़ा भी कम होगा। समापन के समय जब आपके पास समय श्रृंखला डेटा होता है, तो आपको अक्सर उस डेटा को खंडित करने की आवश्यकता होती है, जो समय के साथ परिवर्तित होने वाले मापदंडों या त्रुटि विचरण के साथ सामना करना पड़ता है।


1
LASSO जब प्रतिगमन-आधारित समय श्रृंखला मॉडल जैसे ar autoregressions (AR), वेक्टर autoregressions (VAR) और वेक्टर त्रुटि सुधार मॉडल (VECM) पर लागू होता है तो अच्छा पूर्वानुमान प्रदर्शन दे सकता है। उदाहरण के लिए, लसो वेक्टर ऑटोरेजेशन के लिए सीच और आपको अकादमिक साहित्य में कई उदाहरण मिलेंगे। अपने स्वयं के अनुभव में, स्थिर VAR मॉडल के लिए LASSO का उपयोग सभी उप-चयन या रिज नियमितीकरण की तुलना में बेहतर पूर्वानुमान प्रदर्शन प्रदान करता है, जबकि रिज नियमितीकरण एकीकृत VAR मॉडल के लिए LASSO (मल्टीकोलिनरिटी के कारण, Scortchi के उत्तर के अनुसार) धड़कता है।
रिचर्ड हार्डी

तो LASSO की विफलता समय श्रृंखला में डेटा में अंतर्निहित नहीं है।
रिचर्ड हार्डी

2

यह पहले से ही काफी पुराना प्रश्न है, लेकिन मुझे लगता है कि इस बीच यहां के अधिकांश उत्तर काफी पुराने हैं (और जिसे सही उत्तर के रूप में जांचा जाता है वह सादा गलत है।)

सबसे पहले, अच्छा भविष्यवाणी प्रदर्शन प्राप्त करने के संदर्भ में यह सार्वभौमिक रूप से सच नहीं है कि LASSO हमेशा स्टेप वाइज बेहतर होता है। कागज "सर्वश्रेष्ठ सबसेट चयन, आगे चरणबद्ध चुनाव की विस्तारित तुलना, और कमंद" Hastie एट अल द्वारा (2017) आगे चरणबद्ध, LASSO और आराम LASSO जैसे कुछ LASSO वेरिएंट की एक व्यापक तुलना के साथ ही सबसे अच्छा सबसेट प्रदान करता है, और वे यह दिखाएं कि कभी-कभी LASSO की तुलना में सौतेलापन बेहतर होता है। LASSO का एक प्रकार हालांकि - आराम से LASSO - वह था जिसने परिस्थितियों की व्यापक रेंज के तहत उच्चतम मॉडल भविष्यवाणी सटीकता का उत्पादन किया। जिसके बारे में निष्कर्ष सबसे अच्छा है वह इस बात पर बहुत कुछ निर्भर करता है कि आप सबसे अच्छा क्या मानते हैं, उदाहरण के लिए, चाहे यह उच्चतम भविष्यवाणी सटीकता हो या कुछ सबसे गलत सकारात्मक चर का चयन करना हो।

हालांकि विरल सीखने के तरीकों का एक पूरा चिड़ियाघर है, जिनमें से अधिकांश LASSO से बेहतर हैं। उदाहरण के लिए , पैकेज में लागू किए गए Meinhausen के आराम से LASSO , अनुकूली LASSO और SCAD और MCP दंडात्मक प्रतिगमन हैncvreg , जो सभी मानक LASSO की तुलना में कम पूर्वाग्रह रखते हैं और इसलिए बेहतर होते हैं। इसके अलावा, यदि आप सर्वोत्तम पूर्वानुमान प्रदर्शन के साथ पूर्ण विरल समाधान में रुचि रखते हैं तो L0 दंडित प्रतिगमन (उर्फ सर्वोत्तम उपसमुच्चय, यानी गैर-गुणांक के एनआर के दंड के आधार पर LASSO में गुणांक के निरपेक्ष मान के विपरीत है) LASSO से बेहतर है, उदाहरण के लिए देखें कि l0araपैकेज जो L0 दंडित GLMs को पुनरावृत्त अनुकूली रिज प्रक्रिया का उपयोग करता है, और जो LASSO के विपरीत भी अत्यधिक संकलित चर के साथ बहुत अच्छी तरह से काम करता है, और L0Learnपैकेज , जो समन्वित वंश का उपयोग करके L0 दंडित प्रतिगमन मॉडल फिट कर सकता है , संभवतः संपार्श्विकता को नियमित करने के लिए L2 दंड के साथ संयोजन में।

तो अपने मूल प्रश्न पर वापस आने के लिए: चर चयन के लिए LASSO का उपयोग क्यों न करें? :

(1) क्योंकि गुणांक अत्यधिक पक्षपाती होगा, जो कि आराम LASSO, MCP और SCAD दंडित प्रतिगमन में सुधार किया जाता है, और पूरी तरह से L0 दंडित प्रतिगमन में हल किया जाता है (जिसके पास पूर्ण अलंकृत संपत्ति होती है, अर्थात यह दोनों कारण चर और अनुगमन को निकाल सकता है। निष्पक्ष गुणांक, p> n मामलों के लिए भी)

(2) क्योंकि यह L0 दंडित प्रतिगमन की तुलना में अधिक झूठे सकारात्मक का उत्पादन करने के लिए जाता है (मेरे परीक्षणों में l0araसबसे अच्छा प्रदर्शन करता है, यानी पुनरावृत्त अनुकूली रिज, इसके बाद L0Learn)

(3) क्योंकि यह कोलिनियर वेरिएबल्स के साथ अच्छी तरह से व्यवहार नहीं कर सकता (यह अनिवार्य रूप से केवल बेतरतीब ढंग l0araसे कोलीनियर वेरिएबल्स में से एक का चयन करेगा) - पुनरावृत्ति विशेषण रिज / और L0L2 पेनल्टी L0Learnउस से निपटने में बहुत बेहतर हैं।

बेशक, सामान्य तौर पर, आपको अभी भी इष्टतम भविष्यवाणी प्रदर्शन प्राप्त करने के लिए अपने नियमितीकरण पैरामीटर (ओं) को ट्यून करने के लिए क्रॉस सत्यापन का उपयोग करना होगा, लेकिन यह एक मुद्दा नहीं है। और आप अपने मापदंडों पर उच्च आयामी अनुमान भी लगा सकते हैं और अपने गुणांक पर 95% विश्वास अंतराल की गणना कर सकते हैं यदि आप नॉनपैमेट्रिक बूटस्ट्रैपिंग के माध्यम से पसंद करते हैं (यहां तक ​​कि इष्टतम नियमितीकरण के चयन पर अनिश्चितता को ध्यान में रखते हुए यदि आप प्रत्येक बूटस्ट्रैप किए गए डेटासेट पर अपनी क्रॉस सत्यापन भी करते हैं , हालांकि यह काफी धीमा हो जाता है)।

कम्प्यूटेशनल रूप से LASSO, स्टेपवाइज एप्रोच btw की तुलना में फिट होने के लिए धीमा नहीं है, निश्चित रूप से नहीं अगर कोई अत्यधिक अनुकूलित कोड का उपयोग करता है जो आपके LASSO नियमितीकरण का अनुकूलन करने के लिए गर्म का उपयोग करता है (आप fsआगे की स्टेप lassoवाइज के लिए कमांड का उपयोग करके और bestsubsetपैकेज में LASSO के लिए खुद की तुलना कर सकते हैं )। यह तथ्य कि स्टेप वाइज एप्रोच अभी भी लोकप्रिय हैं, शायद बहुतों के गलत विश्वास के साथ यह करना है कि कोई आपके अंतिम मॉडल को रख सकता है और यह संबंधित पी मानों को रिपोर्ट कर सकता है - जो वास्तव में करने के लिए सही बात नहीं है, क्योंकि यह ऐसा नहीं करता है अपने मॉडल चयन द्वारा शुरू की गई अनिश्चितता को ध्यान में रखें, जिसके परिणामस्वरूप बहुत अधिक आशावादी पी मान हैं।

उम्मीद है की यह मदद करेगा?


0

एक बड़ी एक परिकल्पना परीक्षण करने की कठिनाई है। आप आसानी से यह पता नहीं लगा सकते हैं कि लास्सो के साथ कौन से चर सांख्यिकीय रूप से महत्वपूर्ण हैं। स्टेप वाइज रिग्रेशन के साथ, आप कुछ हद तक परिकल्पना परीक्षण कर सकते हैं, यदि आप कई परीक्षण के अपने उपचार के बारे में सावधान हैं।


8
मैं कहूंगा कि यह एक फायदा है, नुकसान नहीं। यह आपको कुछ ऐसा करने से रोकता है जो शायद आप नहीं कर रहे हैं।
पीटर Flom

@ अभिनेता: क्यों? मैं मान रहा हूं कि आप कई परीक्षण आदि के लिए सही तरीके से सही होंगे, ताकि प्राप्त किए गए पी-मान मान्य होंगे।
dsimcha

10
वहाँ वास्तव में एक कदम ठीक से कई परीक्षण के लिए सही करने के लिए रास्ता नहीं है। देखें, उदाहरण के लिए, हार्ले रिग्रेशन मॉडलिंग रणनीतियों। वहाँ कोई रास्ता नहीं है सही सुधार पता करने के लिए है
पीटर Flom

4
यह सच है कि परिकल्पना परीक्षण करने की कठिनाई LASSO का एक संभावित नुकसान है। यह सच नहीं है कि यह एक नुकसान विज़-ए-वी स्टेपवाइज़ रिग्रेशन है।
गुंग - फिर से बहाल करें मोनिका

2
अच्छी तरह से LASSO के लिए (पोस्ट चयन) करने के लिए चयन (पोस्ट सिलेक्शन में कार्यान्वित) के लिए सेलेक्टिव इंविज़न फ्रेमवर्क (लागू किया गया है) है ... या किसी भी वैरिएबल सेलेक्शन मेथड के लिए कोई भी इनपरेशन करने के लिए और अपने पैरामीटर अनुमानों पर विश्वास अंतराल प्राप्त करने के लिए नॉनपेर्मेट्रिक बूटस्ट्रैपिंग का उपयोग कर सकता है। ..
टॉम वेन्सेलर्स
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.