《表2 时间复杂度对比结果》

《表2 时间复杂度对比结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《池化和注意力相结合的新闻文本分类方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

如表1所示,注意力池化模型在测试集上达到了83.96%的准确率,优于标准的CNN、LSTM模型以及池化模型SWEM,并且在迭代速度和迭代次数上都存在优势.CNN模型的准确率达到了74.97%,效果不如SWEM和注意力池化模型,是由于对于长文本来说,CNN能提取出局部特征,但是不能注意到整个文本中最重要的部分,CNN分类的MacroF1值最高,证明其在各个类别上的准确率较好.LSTM在测试集上达到了72.53%的准确率,虽然LSTM能兼顾上文的信息,但是由于新闻文本的长度较长,LSTM中遗忘门会丢弃过长之前的文本特征,LSTM中的记忆门只会记住一段长度前的信息,导致在过长的文本处理中,正确率反而会有所下降.模型速度对比结果如表2所示.