boosting पर टैग किए गए जवाब

एल्गोरिदम का एक परिवार कमजोर भविष्य कहनेवाला मॉडल को एक मजबूत भविष्य कहनेवाला मॉडल में मिलाता है। सबसे आम दृष्टिकोण को ग्रेडिंग बूस्टिंग कहा जाता है, और सबसे अधिक इस्तेमाल किया जाने वाला कमजोर मॉडल वर्गीकरण / प्रतिगमन पेड़ हैं।

1
स्किकिट बिनोमियल डिविज़न लॉस फंक्शन
यह स्कैडिट ग्रैडिएंटबॉस्टिंग का द्विपद अवमूल्यन हानि कार्य है, def __call__(self, y, pred, sample_weight=None): """Compute the deviance (= 2 * negative log-likelihood). """ # logaddexp(0, v) == log(1.0 + exp(v)) pred = pred.ravel() if sample_weight is None: return -2.0 * np.mean((y * pred) - np.logaddexp(0.0, pred)) else: return (-2.0 / …

2
Adaboost निर्णय पेड़ों के साथ क्यों?
मैं विशेष रूप से वर्गीकरण कार्यों और विशेष रूप से Adaboost के लिए एल्गोरिदम को बढ़ावा देने पर थोड़ा पढ़ रहा हूं। मैं समझता हूं कि Adaboost का उद्देश्य कई "कमजोर शिक्षार्थियों" को लेना है, और प्रशिक्षण डेटा पर पुनरावृत्तियों के सेट के माध्यम से, कक्षाओं का अनुमान लगाने के …

1
आर में प्रत्येक भविष्यवाणी के लिए प्रतिगमन (यादृच्छिक जंगलों / XGBoost के साथ) में आत्मविश्वास स्कोर की गणना कैसे करें?
क्या एक अनुमानित स्कोर प्राप्त करने का एक तरीका है (हम रैंडम फ़ॉरेस्ट या चरम ग्रेड बूस्टिंग (XGBoost) जैसे एल्गोरिदम का उपयोग करते समय प्रत्येक अनुमानित मूल्य के लिए इसे आत्मविश्वास मूल्य या संभावना भी कह सकते हैं)। मान लें कि यह आत्मविश्वास स्कोर 0 से 1 तक होगा और …

1
रैंडम वन बनाम अडाबोस्ट
रैंडम फ़ॉरेस्ट्स (ब्रेमेन, 1999) के खंड 7 में , लेखक निम्नलिखित अनुमान बताता है: "अडाबोस्ट एक रैंडम फ़ॉरेस्ट" है। क्या किसी ने साबित किया है, या यह नापसंद है? 1999 की इस पोस्ट को साबित करने या उसे खारिज करने के लिए क्या किया गया है?

3
जनसंख्या आर-वर्ग परिवर्तन पर विश्वास अंतराल कैसे प्राप्त करें
एक साधारण उदाहरण के लिए मान लें कि दो रैखिक प्रतिगमन मॉडल हैं मॉडल 1 है तीन भविष्यवक्ताओं, x1a, x2b, औरx2c मॉडल 2 में मॉडल 1 से तीन और दो अतिरिक्त भविष्यवक्ता हैं x2aऔरx2b वहाँ एक जनसंख्या प्रतिगमन समीकरण जहां जनसंख्या विचरण समझाया है मॉडल 1 के लिए और मॉडल …

1
वृक्ष का पेड़ ढाल का आकार बढ़ाने वाला
फ्रेडमैन द्वारा प्रस्तावित ग्रेडिएंट ट्री Jको आधार शिक्षार्थियों के रूप में टर्मिनल नोड्स (= पत्तियों) के साथ निर्णय पेड़ों का उपयोग किया जाता है । Jउदाहरण के लिए बिल्कुल नोड्स के साथ एक पेड़ उगाने के कई तरीके हैं, एक पेड़ को पहली गहराई में या एक चौड़ाई वाले पहले …
10 r  cart  boosting 

1
लीनियर बेस लर्नर बढ़ाने में कैसे काम करता है? और यह xgboost लाइब्रेरी में कैसे काम करता है?
मुझे पता है कि XGBoost में रैखिक उद्देश्य फ़ंक्शन और रैखिक बूस्ट को कैसे लागू किया जाए। मेरा ठोस सवाल यह है: जब एल्गोरिथ्म यह अवशिष्ट (या नकारात्मक ढाल) फिट बैठता है तो क्या यह प्रत्येक चरण में एक विशेषता का उपयोग कर रहा है (यानी एकतरफा मॉडल) या सभी …

1
पुनर्निमित बूस्टेड रिग्रेशन ट्री (BRT), सामान्यीकृत बूस्टेड मॉडल (GBM), और ग्रेडिएंट बूस्टिंग मशीन (GBM)
प्रशन: बूस्टेड रिग्रेशन ट्री (बीआरटी) और सामान्यीकृत बूस्टेड मॉडल (जीबीएम) के बीच अंतर क्या है? क्या उनका परस्पर उपयोग किया जा सकता है? क्या एक दूसरे का विशिष्ट रूप है? रिडवे ने "सामान्यीकृत बूस्ट रिग्रेशन मॉडल" (जीबीएम) वाक्यांश का उपयोग क्यों किया, यह बताने के लिए कि फ्राइडमैन ने पहले …

2
बूस्ट आउट करने के लिए बैग त्रुटि का अनुमान?
रैंडम फ़ॉरेस्ट में, प्रत्येक पेड़ को डेटा के एक अद्वितीय बूस्टर नमूना के समानांतर में उगाया जाता है। क्योंकि प्रत्येक बूस्टअप सैंपल में लगभग 63% अनोखी टिप्पणियों के होने की उम्मीद है, यह लगभग 37% टिप्पणियों को छोड़ देता है, जिसका उपयोग पेड़ के परीक्षण के लिए किया जा सकता …

2
पेड़ों को बढ़ाने में ट्यूनिंग मापदंडों के लिए इष्टतम मान कैसे खोजें?
मुझे लगता है कि बूस्टिंग ट्री मॉडल में 3 ट्यूनिंग पैरामीटर हैं, अर्थात पेड़ों की संख्या (पुनरावृत्तियों की संख्या) संकोचन पैरामीटर विभाजन की संख्या (प्रत्येक घटक पेड़ों का आकार) मेरा सवाल यह है: ट्यूनिंग मापदंडों में से प्रत्येक के लिए, मुझे इसका इष्टतम मूल्य कैसे खोजना चाहिए? और कौन सी …

1
मनाया बनाम अपेक्षित घटनाओं की तुलना कैसे करें?
मान लीजिए कि मेरे पास 4 संभावित घटनाओं की आवृत्तियों का एक नमूना है: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 और मुझे होने वाली मेरी घटनाओं की संभावित संभावनाएं हैं: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 मेरी चार …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.