《表4 酒店评论数据集评测结果对比》

《表4 酒店评论数据集评测结果对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《结合LDA与Self-Attention的短文本情感分类方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
%

如表4所示,本文选取了五种基于词向量、LSTM和Self-Attention相结合的算法[10,20]进行复杂度和准确率的对比分析。由于五种模型都使用了word2vec词向量,因此word2vec模型复杂度可以忽略。因此对比模型可以划分为4种基于LSTM的模型和1种基于Self-Attention的模型。根据文献[21],LSTM单层的复杂度为O(n×d2),Self-Attention单层复杂度为O(n2×d),其中n为序列长度,d为词向量的维度。当n