《表1 实验结果:基于GRU-Attention的中文文本分类》

《表1 实验结果:基于GRU-Attention的中文文本分类》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于GRU-Attention的中文文本分类》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

实验结果如表1所示,从中可以看出,在相同的数据集中,GRU-Attention模型的表现性能优于经典的GRU模型。另外,GRU模型以及GRU-Attention模型的性能效果要比传统机器学习分类模型好,是因为注意力机制计算了文本中每个词的注意力概率值,这样可以更好地提取文本特征,从而提高文本分类的准确率。这说明Attention对GRU文本分类模型性能的提升起到了一定的作用。