XGBoost एक अच्छा काम कर रहा है, जब यह स्पष्ट और निरंतर निर्भर चर दोनों से निपटने की बात करता है। लेकिन, मैं एक XGBoost समस्या के लिए अनुकूलित मापदंडों का चयन कैसे करूं?
यह है कि मैंने हाल ही में कागल समस्या के लिए पैरामीटर लागू किया है:
param <- list( objective = "reg:linear",
booster = "gbtree",
eta = 0.02, # 0.06, #0.01,
max_depth = 10, #changed from default of 8
subsample = 0.5, # 0.7
colsample_bytree = 0.7, # 0.7
num_parallel_tree = 5
# alpha = 0.0001,
# lambda = 1
)
clf <- xgb.train( params = param,
data = dtrain,
nrounds = 3000, #300, #280, #125, #250, # changed from 300
verbose = 0,
early.stop.round = 100,
watchlist = watchlist,
maximize = FALSE,
feval=RMPSE
)
मेरे द्वारा प्रयोग किए जाने वाले सभी परिणाम में सुधार के लिए यादृच्छिक रूप से चयन (अंतर्ज्ञान के साथ) मापदंडों का एक और सेट है।
क्या वैसे भी मैं मापदंडों के अनुकूलित (सर्वोत्तम) सेट के चयन को स्वचालित करता हूं?
(उत्तर किसी भी भाषा में हो सकते हैं। मैं सिर्फ तकनीक की तलाश में हूँ)