boosting पर टैग किए गए जवाब

एल्गोरिदम का एक परिवार कमजोर भविष्य कहनेवाला मॉडल को एक मजबूत भविष्य कहनेवाला मॉडल में मिलाता है। सबसे आम दृष्टिकोण को ग्रेडिंग बूस्टिंग कहा जाता है, और सबसे अधिक इस्तेमाल किया जाने वाला कमजोर मॉडल वर्गीकरण / प्रतिगमन पेड़ हैं।

4
जैसे-जैसे पुनरावृत्तियों की संख्या बढ़ती है, धीरे-धीरे बूस्टिंग मशीन की सटीकता कम होती जाती है
मैं caretआर में पैकेज के माध्यम से ढाल बूस्टिंग मशीन एल्गोरिदम का प्रयोग कर रहा हूं । एक छोटे से कॉलेज प्रवेश डेटासेट का उपयोग करते हुए, मैंने निम्नलिखित कोड चलाया: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

1
क्या बैगिंग एल्गोरिदम यादृच्छिक वन के उत्तराधिकारी के योग्य हैं?
एल्गोरिदम को बढ़ावा देने के लिए, मैं कहूंगा कि वे बहुत अच्छी तरह से विकसित हुए हैं। 1995 की शुरुआत में AdaBoost को पेश किया गया था, फिर कुछ समय बाद यह ग्रैडिएंट बूस्टिंग मशीन (GBM) थी। हाल ही में, 2015 के आसपास XGBoost पेश किया गया था, जो सटीक …

1
जब कोई AdaBoost का उपयोग करना चाहेगा?
जैसा कि मैंने AdaBoost क्लासिफायर के बारे में बार-बार काम पर बताया है, मैं चाहता था कि यह कैसे काम करता है और जब कोई इसका उपयोग करना चाहता है, तो उसे बेहतर अनुभव मिल सकता है। मैं आगे बढ़ चुका हूं और इस पर बहुत सारे कागजात और ट्यूटोरियल …


3
R: मैं gbm और randomForest के आंशिक निर्भरता भूखंडों में क्या देखते हैं?
दरअसल, मुझे लगा कि मैं समझ गया था कि आंशिक निर्भरता की साजिश के साथ कोई क्या दिखा सकता है, लेकिन एक बहुत ही सरल काल्पनिक उदाहरण का उपयोग करते हुए, मैं बल्कि हैरान रह गया। कोड की निम्न हिस्सा में मैं तीन स्वतंत्र चर (उत्पन्न एक , ख , …

1
क्या 1% जैसी कम घटना दर वाले डेटा के लिए ग्रेडिंग बूस्ट उचित है?
मैं एंटरप्राइज़ माइनर का उपयोग करके लगभग 1% की दर से एक डेटासेट पर ग्रेडिंग बढ़ाने की कोशिश कर रहा हूं, लेकिन यह किसी भी आउटपुट का उत्पादन करने में विफल हो रहा है। मेरा प्रश्न यह है कि चूंकि यह एक निर्णय आधारित पेड़ है, इसलिए क्या इस तरह …

3
यादृच्छिक वन और बूस्टिंग पैरामीट्रिक या गैर पैरामीट्रिक हैं?
उत्कृष्ट सांख्यिकीय मॉडलिंग को पढ़ने से : दो संस्कृतियों (ब्रेमेन 2001) , हम पारंपरिक सांख्यिकीय मॉडल (जैसे, रैखिक प्रतिगमन) और मशीन लर्निंग एल्गोरिदम (जैसे, बगिंग, रैंडम फ़ॉरेस्ट, बूस्टेड पेड़ ...) के बीच सभी अंतर को जब्त कर सकते हैं। ब्रेमेन डेटा मॉडल (पैरामीट्रिक) की आलोचना करता है क्योंकि वे इस …

1
हमेशा सदृश सीखने का उपयोग क्यों न करें?
यह मुझे लगता है कि सीखना सीखना हमेशा एक एकल सीखने की परिकल्पना की तुलना में बेहतर भविष्य कहनेवाला प्रदर्शन देना होगा। तो, हम हर समय उनका उपयोग क्यों नहीं करते हैं? मेरा अनुमान शायद, कम्प्यूटेशनल सीमाओं के कारण है? (फिर भी, हम कमजोर भविष्यवक्ताओं का उपयोग करते हैं, इसलिए …

9
अजगर में बूस्टेड पेड़? [बन्द है]
बन्द है। यह सवाल ऑफ टॉपिक है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? प्रश्न को अपडेट करें ताकि यह क्रॉस मान्य के लिए विषय पर हो । 6 महीने पहले बंद हुआ । वहाँ एक अच्छा अजगर प्रशिक्षण के लिए …
13 python  cart  boosting 

2
निर्णय पेड़ों के लिए श्रेणीबद्ध विशेषताओं को कोड करने के लिए सर्वोत्तम अभ्यास?
जब रैखिक प्रतिगमन के लिए श्रेणीगत विशेषताओं को कोडित किया जाता है, तो एक नियम होता है: डमी की संख्या कुल स्तरों की संख्या (संपार्श्विकता से बचने के लिए) से एक कम होनी चाहिए। क्या डिसीजन ट्रीज़ (बैगेड, बूस्टेड) ​​के लिए एक समान नियम मौजूद है? मैं यह इसलिए पूछ …

5
क्या स्वचालित मशीन एक सपना सीख रही है?
जैसा कि मैंने मशीन लर्निंग की खोज की है, मैं अलग-अलग दिलचस्प तकनीकों को देखता हूँ जैसे: स्वचालित रूप से इस तरह की तकनीकों के साथ एल्गोरिदम ट्यून grid search, एक ही "प्रकार" के विभिन्न एल्गोरिदम के संयोजन के माध्यम से अधिक सटीक परिणाम प्राप्त करें, यही है boosting, विभिन्न …

3
बूस्टिंग विधि आउटलेर्स के लिए संवेदनशील क्यों है
मुझे कई लेख मिले जो बताते हैं कि बढ़ावा देने के तरीके बाहरी लोगों के लिए संवेदनशील हैं, लेकिन कोई भी लेख क्यों नहीं समझा रहा है। मेरे अनुभव में किसी भी मशीन लर्निंग एल्गोरिदम के लिए आउटलेयर खराब हैं, लेकिन विशेष रूप से संवेदनशील के रूप में एकल को …

1
लॉजिस्टिक लॉस फंक्शन के लिए ग्रेडिएंट
मैं इस एक से संबंधित एक प्रश्न पूछूंगा । मुझे यहाँ xgboost के लिए कस्टम लॉस फंक्शन लिखने का एक उदाहरण मिला : loglossobj <- function(preds, dtrain) { # dtrain is the internal format of the training data # We extract the labels from the training data labels <- getinfo(dtrain, …

1
Adaboost में कमजोर शिक्षार्थी के रूप में निर्णय स्टंप का उपयोग कैसे करें?
मैं निर्णय स्टंप का उपयोग करके Adaboost को लागू करना चाहता हूं। क्या Adaboost के प्रत्येक पुनरावृत्ति में हमारे डेटा सेट की सुविधाओं के रूप में कई निर्णय स्टंप करना सही है? उदाहरण के लिए, यदि मेरे पास 24 विशेषताओं वाला डेटा सेट है, तो क्या मुझे प्रत्येक पुनरावृत्ति में …

2
वर्गीकरण के लिए एसवीएम के साथ Adaboost का उपयोग करना
मुझे पता है कि Adaboost कमजोर क्लासीफायर के सेट के रैखिक संयोजन का उपयोग करके एक मजबूत क्लासिफायरियर बनाने की कोशिश करता है। हालाँकि, मैंने कुछ शर्तों और मामलों में Adaboost और SVM के सामंजस्य (भले ही SVM एक मजबूत क्लासिफायरिफायर है) में काम करने वाले सुझाव देने वाले कुछ …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.