《表2 参数调整后的XGBoost模型的识别结果》

《表2 参数调整后的XGBoost模型的识别结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于XGBoost的RNA修饰位点的识别》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了应对这一挑战,针对性地选取一些核心参数,将对模型性能影响不大的参数剔除。据此,在通用参数中选取booster、learning_rate、max_depth、min_child_weight、subsample、colsample_bytree、gamma、lambda和alpha这8个参数,在学习任务参数中选取objective参数,在命令行参数中选取num_round参数。其中:max_depth和min_child_weight对决策树的构建起约束作用;subsample和colsample_bytree均是关于采样的参数;lambda和alpha均是正则项。为了进一步减少运算量,采用组合分批网格搜索的策略,即将具有相同作用的参数组合在一起,对组合进行网格搜索,将最优组合与其他参数组合在一起,再进行网格搜索。调参后的XG-Boost模型在jackknife测试下的识别结果如表2所示。从表2可看出,m6 A修饰位点的识别准确率从88.1%提升到了92.6%,m5C修饰位点的识别准确率从88.2%提升到了89.6%,虽然m1 A修饰位点的识别准确率并未得到提升,但在此之前已经达到了99.9%这样一个非常理想的水平。