《表3 分类结果比较:基于Stacking集成学习的流失用户预测方法》

《表3 分类结果比较:基于Stacking集成学习的流失用户预测方法》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Stacking集成学习的流失用户预测方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

表3给出了各个分类模型的得分.其中经典Stacking集成方法在测试集中的得分比其最好的基分类器在F1度量上差0.3%,可见集成后分类效果没有提升,造成这种情况的一种可能是:基分类在训练集中对某些相同的样本均分类错误,使元分类器在错误的数据中训练,从而导致最后样本的分类错误.实验结果表明,BS-Stacking具有较高的分类准确率及流失用户的F1值得分.在基分类器中,Logistic Regression、SVC和Ada Boost具有相近的得分,其中得分最高的为Logistic Regression.BS-Stacking与Logistic Regression相比,F1值提高0.8%,准确率提高0.2%;与经典Stacking相比,F1值提高1.1%,准确率提高0.4%;与LSTM相比,F1值提高0.5%,准确率提高0.4%.BS-Stacking具有最高的准确率、查准率和F1值,具有最高召回率的是Native Bayes模型和K-Means模型,但是这两个模型的查准率远低于其他模型.