《表2 参数调整后的XGBoost模型的识别结果》
为了应对这一挑战,针对性地选取一些核心参数,将对模型性能影响不大的参数剔除。据此,在通用参数中选取booster、learning_rate、max_depth、min_child_weight、subsample、colsample_bytree、gamma、lambda和alpha这8个参数,在学习任务参数中选取objective参数,在命令行参数中选取num_round参数。其中:max_depth和min_child_weight对决策树的构建起约束作用;subsample和colsample_bytree均是关于采样的参数;lambda和alpha均是正则项。为了进一步减少运算量,采用组合分批网格搜索的策略,即将具有相同作用的参数组合在一起,对组合进行网格搜索,将最优组合与其他参数组合在一起,再进行网格搜索。调参后的XG-Boost模型在jackknife测试下的识别结果如表2所示。从表2可看出,m6 A修饰位点的识别准确率从88.1%提升到了92.6%,m5C修饰位点的识别准确率从88.2%提升到了89.6%,虽然m1 A修饰位点的识别准确率并未得到提升,但在此之前已经达到了99.9%这样一个非常理想的水平。
图表编号 | XD00132063100 严禁用于非法目的 |
---|---|
绘制时间 | 2019.12.25 |
作者 | 吕成伟、樊永显 |
绘制单位 | 桂林电子科技大学计算机与信息安全学院、桂林电子科技大学计算机与信息安全学院 |
更多格式 | 高清、无水印(增值服务) |