《表1 GBDT算法模型参数的最佳值》

《表1 GBDT算法模型参数的最佳值》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于梯度增强决策树算法的纸张质量软测量模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

对于模型参数,GBDT算法主要有损失函数、每棵树深度、弱回归树棵树和学习率4个参数需要选择。损失函数常用的主要有最小二乘、最小绝对值差值、Huber损失和分位数损失,结合本研究数据波动较大,而Huber损失函数对异常值的抗干扰能力强,因此本研究选用Huber损失函数。然后确定每棵树深度,在数据量不大的情况下,树深度一般在3~6之间选取,树深度较高很容易导致模型过拟合[18],即模型过度学习训练集特征导致对新数据的预测效果变差,表现在训练误差降低而测试误差反而增加。接着确定弱回归树棵树,在10、100、1000三个数量级上选取范围,为了找到最佳值,使用网格搜索方法[20],以10(或50)为增量搜索确定。最后确定学习率,在0.001、0.01、0.1数量级上选取,然后逐步缩小范围,直至在保证模型没有过拟合的前提下测试误差最低,即为模型最佳参数。3种质量软测量模型参数的最佳值如表1所示。模型的测试结果如图3所示。