《表3 不同模型完成1次迭代的训练时间》

《表3 不同模型完成1次迭代的训练时间》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于卷积神经网络和XGBoost的情感分析模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

表3为CNN、LSTM和XGB-CNN模型单次迭代所花费的时间.由结果可以看出,在相同的环境下LSTM模型的训练时间远远高于CNN的训练时间,在宾馆类的数据集上,LSTM模型完成1次迭代的训练时间为20.000s,几乎是CNN模型(1次迭代时间为6.000s)的3倍多.这主要是因为LSTM模型接收的是序列化输入,所以训练时间高于接收并行化输入的CNN模型.XGB-CNN模型先使用CNN进行特征提取,之后再使用XGBoost进行分类,在运行时间上本文模型的运行时间仅比CNN的时间多0.038s,主要是由于XGBoost的并行运算模式极大地降低了模型的运行时间.相对于XGB-CNN模型精确度的提升,XGB-CNN模型较CNN模型运行时间的提升可以忽略不计.