xgboost पर टैग किए गए जवाब

EXtreme ग्रैडिएंट बूस्टिंग एल्गोरिदम से संबंधित प्रश्नों के लिए।

5
GBM बनाम XGBOOST? मुख्य अंतर?
मैं GBM और XGBOOST के बीच महत्वपूर्ण अंतर को समझने की कोशिश कर रहा हूं। मैंने इसे Google करने की कोशिश की, लेकिन दोनों एल्गोरिदम के बीच अंतर को समझाते हुए कोई अच्छा जवाब नहीं मिल सका और क्यों xgboost लगभग हमेशा GBM से बेहतर प्रदर्शन करता है। क्या है …

2
XGBoost महत्व के आउटपुट की व्याख्या कैसे करें?
मैंने एक xgboost मॉडल चलाया। मैं बिल्कुल नहीं जानता कि कैसे आउटपुट की व्याख्या करना है xgb.importance। लाभ, आच्छादन और आवृत्ति का अर्थ क्या है और हम उनकी व्याख्या कैसे करते हैं? इसके अलावा, स्प्लिट, RealCover और RealCover% का क्या मतलब है? मेरे पास यहां कुछ अतिरिक्त पैरामीटर हैं क्या …

1
स्केगन ग्रैडिएंटबॉस्टिंग क्लैसिफायर की तुलना में एक्सगबोस्ट इतना तेज क्यों है?
मैं 100 न्यूमेरिक फीचर्स के साथ 50k उदाहरणों पर एक ढाल बढ़ाने वाले मॉडल को प्रशिक्षित करने की कोशिश कर रहा हूं। XGBClassifierमेरी मशीन पर 43 सेकंड के भीतर 500 पेड़ लगाता है, जबकि GradientBoostingClassifier1 मिनट और 2 सेकंड में केवल 10 पेड़ (!) को संभालता है :( मैंने 500 …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

3
Hypertuning XGBoost पैरामीटर
XGBoost एक अच्छा काम कर रहा है, जब यह स्पष्ट और निरंतर निर्भर चर दोनों से निपटने की बात करता है। लेकिन, मैं एक XGBoost समस्या के लिए अनुकूलित मापदंडों का चयन कैसे करूं? यह है कि मैंने हाल ही में कागल समस्या के लिए पैरामीटर लागू किया है: param …
27 r  python  xgboost 

2
लाइट जीबीएम बनाम एक्सजीबोस्ट
मैं समझने की कोशिश कर रहा हूं कि कौन सा बेहतर है (अधिक सटीक, विशेष रूप से वर्गीकरण समस्याओं में) मैं लाइट जीबीएम और एक्सजीबोस्ट की तुलना करने वाले लेखों की खोज कर रहा हूं लेकिन केवल दो पाए गए: https://medium.com/implodinggradients/benchmarking-lightgbm-how-fast-is-lightgbm-vs-xgboost-15d224568031 - जो केवल गति के बारे में है लेकिन …
25 xgboost 

3
हमें XGBoost और यादृच्छिक वन की आवश्यकता क्यों है?
मैं कुछ अवधारणाओं पर स्पष्ट नहीं था: XGBoost कमजोर शिक्षार्थियों को मजबूत शिक्षार्थियों में परिवर्तित करता है। ऐसा करने से क्या फायदा? केवल एक पेड़ का उपयोग करने के बजाय कई कमजोर शिक्षार्थियों का संयोजन? रैंडम फॉरेस्ट एक पेड़ बनाने के लिए पेड़ से विभिन्न नमूने का उपयोग करता है। …

4
क्या XGBoost मल्टीकोलिनरिटी को खुद से संभालता है?
मैं वर्तमान में 21 सुविधाओं (कुछ 150 सुविधाओं की सूची में से चयनित) के साथ डेटा-सेट पर XGBoost का उपयोग कर रहा हूं, फिर ~ 98 सुविधाओं को प्राप्त करने के लिए एक-हॉट ने उन्हें कोडित किया। इन 98 में से कुछ विशेषताएं कुछ हद तक बेमानी हैं, उदाहरण के …


4
XGBoost के साथ असंतुलित मल्टीक्लास डेटा
मेरे पास इस वितरण के साथ 3 वर्ग हैं: Class 0: 0.1169 Class 1: 0.7668 Class 2: 0.1163 और मैं xgboostवर्गीकरण के लिए उपयोग कर रहा हूं । मुझे पता है कि एक पैरामीटर कहा जाता है scale_pos_weight। लेकिन इसे 'मल्टीस्कल्स' मामले के लिए कैसे संभाला जाता है, और मैं …

1
निर्णय वृक्ष: पत्ती-वार (सर्वोत्तम-प्रथम) और स्तर-वार वृक्ष पार
अंक 1: जिस तरह से पेड़ का विस्तार किया गया है, उसके बारे में लाइट जीबीएम के विवरण से मैं भ्रमित हूं । वे कहते हैं: अधिकांश निर्णय ट्री लर्निंग एल्गोरिदम पेड़ को स्तर (गहराई) द्वारा विकसित करते हैं, जैसे कि निम्नलिखित छवि: प्रश्न 1 : इस तरह से "सबसे …

2
XgBoost में जोड़ीदार रैंकिंग मॉडल कैसे फिट होते हैं?
जहां तक ​​मुझे पता है, रैंक मॉडल्स को सीखने के लिए, आपको डेटासेट में तीन चीजें होनी चाहिए: लेबल या प्रासंगिकता समूह या क्वेरी आईडी सुविधा वेक्टर उदाहरण के लिए, डेटा को रैंक करने वाले Microsoft लर्निंग इस प्रारूप (लेबल, समूह आईडी और सुविधाओं) का उपयोग करता है। 1 qid:10 …
14 search  ranking  xgboost  gbm 

3
पंडों डेटाफ्रेम को DMatrix
मैं scikit सीखने में xgboost चलाने की कोशिश कर रहा हूं। और मैं केवल डेटाफ्रेम में डेटा लोड करने के लिए पंडों का उपयोग करता हूं। मैं कैसे xgboost के साथ पांडा df का उपयोग करने वाला हूं। मैं DMGrix दिनचर्या से उलझन में हूँ xgboost algo चलाने के लिए …

1
XGBRegressor बनाम xgboost.train विशाल गति अंतर?
यदि मैं निम्नलिखित कोड का उपयोग करके अपने मॉडल को प्रशिक्षित करता हूं: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) यह लगभग 1 मिनट में समाप्त होता है। …

1
प्रतिगमन के लिए उच्च-कार्डिनैलिटी श्रेणीबद्ध विशेषताओं के साथ फ़ीचर महत्व (संख्यात्मक डिपेंडेंट चर)
मैं एक रिग्रेशन समस्या के लिए कुछ अनुभवजन्य सुविधा चयन करने के लिए रैंडम फ़ॉरेस्ट से फीचर इंपोर्टेंस का उपयोग करने की कोशिश कर रहा था, जहां सभी सुविधाएँ श्रेणीबद्ध हैं और उनमें से कई के कई स्तर हैं (100-1000 के आदेश पर)। यह देखते हुए कि एक-गर्म एन्कोडिंग प्रत्येक …

3
Xgboost के अनुमानित विभाजन बिंदु प्रस्ताव को समझने में सहायता की आवश्यकता है
पृष्ठभूमि: में xgboost यात्रा की कोशिश करता एक पेड़ फिट करने के लिए च टी सब कुछ खत्म n उदाहरण जो उद्देश्य निम्नलिखित को कम करता है:tttftftf_tnnn ∑i=1n[gift(xi)+12hif2t(xi)]∑i=1n[gift(xi)+12hift2(xi)]\sum_{i=1}^n[g_if_t(x_i) + \frac{1}{2}h_if_t^2(x_i)] जहां पहले के आदेश और हमारे पिछले श्रेष्ठ अनुमान से अधिक दूसरा आदेश डेरिवेटिव हैं y (पुनरावृत्ति से टी - …
12 xgboost  gbm 

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.