XGBoost的参数使用说明

直接调用XGBoost
–import xgboost as xgb

与scikit-learn一起使用
– from xgboost import XGBClassifier

其使用的步骤:

     • 1. 构造学习器实例
         – 模型参数在构造时传递
     • 2. 模型训练:fit/GridSearchCV
     • 3. 预测

• xgboost.XGBClassifier(max_depth=3, learning_rate=0.1,
n_estimators=100, silent=True, objective=‘binary:logistic’, nthread=-1,
gamma=0, min_child_weight=1, max_delta_step=0, subsample=1,
colsample_bytree=1, colsample_bylevel=1, reg_alpha=0, reg_lambda=1,
scale_pos_weight=1, base_score=0.5, random_state=0, seed=None,
missing=None,**kwargs)
• fit(X, y, sample_weight=None, eval_set=None, eval_metric=None, early_st
opping_rounds=None, verbose=True, xgb_model=None)

XGBoost的参数使用说明

XGBoost的参数使用说明

 XGBoost的参数使用说明

 XGBoost的参数使用说明

 XGBoost的参数使用说明

 Kaggle竞赛优胜者的建议
• Tong He(XGBoost R语言版本开发者): 三个最重要的
参数为:树的数目、树的深度和学习率。建议参数调整策
略为:
– 采用默认参数配置试试
– 如果系统过拟合了,降低学习率
– 如果系统欠拟合,加大学习率

XGBoost的参数使用说明

 

具体调参可以参考https://blog.csdn.net/u010657489/article/details/51952785