मैं 100 न्यूमेरिक फीचर्स के साथ 50k उदाहरणों पर एक ढाल बढ़ाने वाले मॉडल को प्रशिक्षित करने की कोशिश कर रहा हूं। XGBClassifier
मेरी मशीन पर 43 सेकंड के भीतर 500 पेड़ लगाता है, जबकि GradientBoostingClassifier
1 मिनट और 2 सेकंड में केवल 10 पेड़ (!) को संभालता है :( मैंने 500 पेड़ों को उगाने की कोशिश नहीं की क्योंकि इसमें घंटों लगेंगे। मैं उसी learning_rate
और max_depth
सेटिंग्स का उपयोग कर रहा हूं। , निचे देखो।
क्या XGBoost इतनी तेजी से बनाता है? क्या यह क्रमिक बूस्टिंग के लिए कुछ उपन्यास कार्यान्वयन का उपयोग करता है जो कि स्केलेर लोगों को नहीं पता है? या यह "कोनों को काटने" और उथले पेड़ों को उगाने वाला है?
ps मैं इस चर्चा से वाकिफ हूँ: https://www.kaggle.com/c/higgs-boson/forums/t/10335/xgboost-post-competition-survey लेकिन वहां से जवाब नहीं मिल सका ...
XGBClassifier(base_score=0.5, colsample_bylevel=1, colsample_bytree=1,
gamma=0, learning_rate=0.05, max_delta_step=0, max_depth=10,
min_child_weight=1, missing=None, n_estimators=500, nthread=-1,
objective='binary:logistic', reg_alpha=0, reg_lambda=1,
scale_pos_weight=1, seed=0, silent=True, subsample=1)
GradientBoostingClassifier(init=None, learning_rate=0.05, loss='deviance',
max_depth=10, max_features=None, max_leaf_nodes=None,
min_samples_leaf=1, min_samples_split=2,
min_weight_fraction_leaf=0.0, n_estimators=10,
presort='auto', random_state=None, subsample=1.0, verbose=0,
warm_start=False)