lasso पर टैग किए गए जवाब

प्रतिगमन मॉडल के लिए एक नियमितीकरण विधि जो शून्य की ओर गुणांक को सिकोड़ती है, जिससे उनमें से कुछ शून्य के बराबर हो जाते हैं। इस प्रकार lasso फीचर का चयन करता है।

3
हम केवल और नियमितीकरण को क्यों देखते हैं लेकिन अन्य मानदंडों को नहीं?
मैं बस उत्सुक हूं कि आमतौर पर केवल और मानदंड नियमित क्यों हैं । क्या इस बात के प्रमाण हैं कि ये बेहतर क्यों हैं?L1L1L_1L2L2L_2

3
कैसे> 50K चर के साथ लासो या रिज प्रतिगमन में संकोचन पैरामीटर का अनुमान लगाने के लिए?
मैं 50,000 से अधिक वैरिएबल वाले मॉडल के लिए लासो या रिज रिग्रेशन का उपयोग करना चाहता हूं। मैं आर में सॉफ्टवेयर पैकेज का उपयोग करना चाहता हूं। मैं सिकुड़न पैरामीटर ( ) का अनुमान कैसे लगा सकता हूं ?λλ\lambda संपादन: यहाँ बिंदु है जो मुझे मिला है: set.seed (123) …

2
लोचदार शुद्ध नियमितीकरण क्या है, और यह रिज (
क्या लोचदार शुद्ध नियमितीकरण हमेशा लसो और रिज के लिए पसंद किया जाता है क्योंकि यह इन विधियों की कमियों को हल करने के लिए लगता है? अंतर्ज्ञान क्या है और लोचदार जाल के पीछे का गणित क्या है?

1
क्या L1 नियमितीकरण के साथ प्रतिगमन Lasso के समान है, और L2 नियमितीकरण के साथ रिज प्रतिगमन के समान है? और "लासो" कैसे लिखें?
मैं एक सॉफ्टवेयर इंजीनियर लर्निंग मशीन लर्निंग हूं, खासकर एंड्रयू एनजी के मशीन लर्निंग कोर्स के जरिए । नियमितीकरण के साथ रैखिक प्रतिगमन का अध्ययन करते समय , मुझे ऐसे शब्द मिले हैं जो भ्रामक हैं: एल 1 नियमितीकरण या एल 2 नियमितीकरण के साथ प्रतिगमन LASSO रिज रिग्रेशन तो …

4
रिज, लासो और इलास्टिक नेट
रिज, LASSO और इलास्टिक नियमितिकरण विधियों की तुलना कैसे करते हैं? उनके संबंधित फायदे और नुकसान क्या हैं? किसी भी अच्छे तकनीकी पेपर, या लेक्चर नोट्स की सराहना की जाएगी।

3
क्या लासो रिग्रेशन मॉडल के लिए एआईसी और बीआईसी की गणना करना संभव है?
क्या लासो रिग्रेशन मॉडल और अन्य नियमित मॉडल के लिए एआईसी या बीआईसी मूल्यों की गणना करना संभव है जहां पैरामीटर केवल समीकरण में आंशिक रूप से प्रवेश कर रहे हैं। स्वतंत्रता की डिग्री कैसे निर्धारित करता है? मैं पैकेज glmnet()से फ़ंक्शन के साथ lasso प्रतिगमन मॉडल फिट करने के …
31 r  model-selection  lasso  aic  bic 

2
L1 नियमितीकरण L2 और इसके विपरीत से बेहतर कब काम करेगा?
नोट: मुझे पता है कि L1 में सुविधा चयन संपत्ति है। मैं यह समझने की कोशिश कर रहा हूं कि फीचर चयन पूरी तरह से अप्रासंगिक होने पर किसे चुनना है। कैसे तय करें कि किस नियमितीकरण (L1 या L2) का उपयोग करना है? एल 1 / एल 2 नियमितीकरण …

3
चाहे LASSO के लिए संकेतक / बाइनरी / डमी भविष्यवाणियों को पुनर्विक्रय करना है
LASSO (और अन्य मॉडल चयन प्रक्रियाओं के लिए) भविष्यवक्ताओं को पुनर्विक्रय करना महत्वपूर्ण है। मेरे द्वारा अनुसरण की जाने वाली सामान्य सिफारिश केवल निरंतर चर के लिए 0 मतलब, 1 मानक विचलन सामान्यीकरण का उपयोग करने के लिए है। लेकिन डमी के साथ क्या करना है? उदाहरण के लिए उसी …

2
नियमितीकरण या दंड के साथ एक ARIMAX मॉडल फिट करना (जैसे कि लासो, लोचदार नेट, या रिज प्रतिगमन के साथ)
मैं विभिन्न कॉवेरेट्स के साथ ARMAX मॉडल फिट करने के लिए पूर्वानुमान पैकेज में auto.arima () फ़ंक्शन का उपयोग करता हूं । हालाँकि, मेरे पास चयन करने के लिए अक्सर बड़ी संख्या में चर होते हैं और आमतौर पर एक अंतिम मॉडल होता है जो उनके सबसेट के साथ काम …

1
एक बंद फॉर्म लैस्सो समाधान की मेरी व्युत्पत्ति गलत क्यों है?
लैस्सो समस्या _ पास बंद फ़ॉर्म समाधान है: \ Beta_j ^ {\ text {lasso}} = = mathrm {sgn} (\ beta ^ {\ text {LS}} _ j) (! \ beta_j ^ \ पाठ {LS | }} | - \ अल्फा) ^ + यदि X के पास असामान्य कॉलम हैं। यह इस …

2
क्या लैस्सो से पहले मानकीकरण वास्तव में आवश्यक है?
मैंने Lassoप्रतिगमन जैसे कुछ के पहले चर के मानकीकरण के तीन मुख्य कारण पढ़े हैं : 1) गुणांकों की व्याख्या। 2) बाद के संकोचन गुणांक अनुमानों के सापेक्ष परिमाण द्वारा गुणांक महत्व को रैंक करने की क्षमता। 3) अवरोधन की कोई आवश्यकता नहीं। लेकिन मैं सबसे महत्वपूर्ण बिंदु के बारे …

1
क्या स्वतंत्रता की डिग्री एक गैर-पूर्णांक संख्या हो सकती है?
जब मैं GAM का उपयोग करता हूं, तो यह मुझे अवशिष्ट डीएफ देता है (कोड में अंतिम पंक्ति)। इसका क्या मतलब है? GAM उदाहरण से परे, सामान्य तौर पर, क्या स्वतंत्रता की डिग्री की संख्या एक गैर-पूर्णांक संख्या हो सकती है?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

2
लसो पेनल्टी डबल एक्सपोनेंशियल (लाप्लास) के बराबर क्यों है?
मैं अनेक संदर्भ उपस्थित में पढ़ा है कि प्रतिगमन पैरामीटर वेक्टर के लिए कमंद अनुमान BBB के पीछे मोड के बराबर है BBB जिसमें प्रत्येक के लिए पूर्व वितरण BiBiB_i एक डबल घातीय वितरण (यह भी लाप्लास वितरण के रूप में जाना जाता है) है। मैं यह साबित करने की …

2
"डबल लैस्सो" या दो बार लैस्सो करने के फायदे?
मैंने एक बार दो बार लासो का उपयोग करने की एक विधि (एक डबल-लासो की तरह) सुनी थी जहाँ आप चर के मूल सेट पर लासो प्रदर्शन करते हैं, S1 कहते हैं, S2 नामक एक विरल सेट प्राप्त करें, और फिर सेट S2 प्राप्त करने के लिए S2 पर फिर …

3
वैरिएबल के लैस्सो-पहचाने गए सबसेट पर ओएलएस अनुमानों पर लास्सो अनुमानों का उपयोग क्यों करें?
k β एल एक रों रों ओ = ( β एल एक रों रों ओ 1 , β एल एक रों रों ओ 2 , । । । , β एल एकL(β)=(Xβ−y)′(Xβ−y)+λ∥β∥1,L(β)=(Xβ−y)′(Xβ−y)+λ‖β‖1,L(\beta)=(X\beta-y)'(X\beta-y)+\lambda\|\beta\|_1,kkkβ^lasso=(β^lasso1,β^lasso2,...,β^lassok,0,...0)β^lasso=(β^1lasso,β^2lasso,...,β^klasso,0,...0)\hat{\beta}^{lasso}=\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso},0,...0\right) हम जानते हैं कि एक है पक्षपाती अनुमान , इसलिए हम अंतिम समाधान के रूप में अधिक 'वाजिब' …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.