python xgboost参数,xgboost调参参数解释

  python xgboost参数,xgboost调参参数解释

  xgboost一. API详解XGBoost。XGBClassifier 1.1参数1.1.1通用参数:booster=‘gbtree’使用的提升数类型gbtree、GBLINEAR DARTsilent=True:训练时是否打印日志n_jobs=1:并行运行的线程数1.1.2用learning_rate=0.1:树参数提高训练的学习率,降低几乎max_depth=3:树的最大深度gamma=0010-5900 行索引n_estimators=100:、列min_child_weight=1:L1正则化系数subsample=1:L2正则化系数1.1.3学习任务参数colsample_bytree=1:确定学习任务和相应的学习函数 reg:线性-线性回归 reg:logistic-logistic回归现实大豆ary:logistic -二元logistic回归、输出概率现实大豆ary:logi traw -二元logistic回归、输出logistic变换前的得分 multi: softmax multi: softprob

  reg_alpha=0:缺失值的处理方法

  最大增量步长=0,

  reg_lambda=1:

  scale_pos_weight=1

  base_score=0.5

  Nthread=None:已弃用,改用n_jobs

  Seed=None:已弃用,支持random_state。

  1.1.4控制过拟合:降低模型复杂度:max _ depth,min _ child _ weight,gamma。随机抽样:子抽样,colsample_bytree。降低学习率,相应增加训练轮次。1.2方法:1.2.1拟合objective=‘现实的黄豆ary:logistic’特征矩阵。

  random_state=0:标签

  missing=None:无样品的重量

  colsample_bylevel=1(x,y)验证集,用于检测训练提前结束。

  X:评价指标

  Rmsemaeloglosserror :二进制分类错误率,阈值为0.5error@t :类似error,阈值为tmloglossaucy:,提前结束轮数verbose=True,xgb_model=None,Sample _ weight _ eval _ set=None 1 . 2 . 2 predict(data,output _ margin=false,ntree _ limit=0)返回预测类别,数据类型为np.array,阈值不好控制。

  1.2.3 predict _ proba (data,ntree _ limit=0)预测每个数据成为给定类别的概率。

  Gbm:核心参数:sample_weight=None:(objective_type,app,Application)回归任务:回归eval_set=None: poisson tweedie 分类任务:现实大豆ary :两个分类 multi class :multi classeval_metric=None:(boosting _ type,Boost) GBDT :传统梯度提升决策树early_stopping_rounds=None: RF :随机森林 DART: drops meet多重可加回归树 Goss :基于梯度的单侧采样训练更快,可能欠拟合010 random _ seed)’objective’:(n _ jobs,n次读取)(默认)单棵树的最大叶子数,31(默认)控制学习参数:’boosting_type’:一棵树的最大深度, 无限制可用于控制过拟合(默认)(reg_lambda,lambda) L2正则化,0(缺省)data(reg_alpha) L1正则化,0(缺省)valid(min _ data,min _ child _ samples)一片叶子的最小数据量。20(缺省)可用于控制过拟合’num_iteration’:(sub _ row,bagging,bagging _ fraction)到样本样本,1(缺省)可用于控制过拟合’learning_rate’:(colsample _ by tree,feature _ fraction)到样本特征,1(缺省)加速训练,如果过拟合seed:(early_stopping_round)有验证集,则提前停止的轮数为num_threads:(提前1(默认)对照表参数LightgbmXGBoost模型参数boosting _ type= gbdt / dart / Goss / RF boosting _ type= gbdt (gbdt,dart,Goss,Rf) num _ leaves=31 max _ depth=-1(无限制)n _ estimators=100 learning _ rate=0.1 sub sample _ for _ real soybean=20000 objective= regression / real soybean ary/multi class)class _ weight=(dict, “‘平衡’或无)min _ split _ gain=0min _ split _ weight=1e-3min _ Hessian多类分裂子样本值=1训练样本率(行)colsample_bytree=1训练特征样本率(列)Lambda_l1=0:L1=0: L1正则化系数lambda_l2=0.0: L2正则化系数random_state=None:随机种子数n_jobs=-1:线程数max_ real大豆=255 importance _ type=split / gain fitx,yeval_set=None XG Boost和LightGBM的参数和调整

  2.XG Boost参数调整和实战完全指南

  3.轻音符GBM

  4.LightGBM参数调整方法(具体操作)

  5.LightGBM源代码阅读理论分析(处理特征类别,默认值实现细节)6。开源 light GBM:GitHub三天收获1000颗星。

  7.《我爱机器学习》综合学习(4) LightGBM

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: