XGBoost的参数使用说明
直接调用XGBoost
–import xgboost as xgb
与scikit-learn一起使用
– from xgboost import XGBClassifier
其使用的步骤:
• 1. 构造学习器实例
– 模型参数在构造时传递
• 2. 模型训练:fit/GridSearchCV
• 3. 预测
• xgboost.XGBClassifier(max_depth=3, learning_rate=0.1,
n_estimators=100, silent=True, objective=‘binary:logistic’, nthread=-1,
gamma=0, min_child_weight=1, max_delta_step=0, subsample=1,
colsample_bytree=1, colsample_bylevel=1, reg_alpha=0, reg_lambda=1,
scale_pos_weight=1, base_score=0.5, random_state=0, seed=None,
missing=None,**kwargs)
• fit(X, y, sample_weight=None, eval_set=None, eval_metric=None, early_st
opping_rounds=None, verbose=True, xgb_model=None)
Kaggle竞赛优胜者的建议
• Tong He(XGBoost R语言版本开发者): 三个最重要的
参数为:树的数目、树的深度和学习率。建议参数调整策
略为:
– 采用默认参数配置试试
– 如果系统过拟合了,降低学习率
– 如果系统欠拟合,加大学习率
具体调参可以参考https://blog.csdn.net/u010657489/article/details/51952785