《表3 LSTM-Attention及对比实验结果[9]》

《表3 LSTM-Attention及对比实验结果[9]》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于神经网络模型的文本分类研究综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

文献[9]中在LSTM-Attention和LSTM-LSTM两种网络上进行了对比实验,LSTM-LSTM与LSTM-Attention的不同之处是,在词语和句子级别之后的LSTM网络后直接进入平均池化层,并没有加入注意力机制.在这一实验中,数据集采用的是IMDB,yelp2013,yelp2014数据集,词向量是使用word2vec对语料产生200维度的词向量,采用准确率和方差作为模型的衡量标准.对比实验结果汇总如表3所示.