《表4 酒店评论数据集评测结果对比》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《结合LDA与Self-Attention的短文本情感分类方法》
%
如表4所示,本文选取了五种基于词向量、LSTM和Self-Attention相结合的算法[10,20]进行复杂度和准确率的对比分析。由于五种模型都使用了word2vec词向量,因此word2vec模型复杂度可以忽略。因此对比模型可以划分为4种基于LSTM的模型和1种基于Self-Attention的模型。根据文献[21],LSTM单层的复杂度为O(n×d2),Self-Attention单层复杂度为O(n2×d),其中n为序列长度,d为词向量的维度。当n
图表编号 | XD00150181300 严禁用于非法目的 |
---|---|
绘制时间 | 2020.09.15 |
作者 | 陈欢、黄勃、朱翌民、俞雷、余宇新 |
绘制单位 | 上海工程技术大学电子电气工程学院、上海工程技术大学电子电气工程学院、江西省经济犯罪侦查与防控技术协同创新中心、上海工程技术大学电子电气工程学院、上海工程技术大学电子电气工程学院、上海外国语大学国际金融贸易学院 |
更多格式 | 高清、无水印(增值服务) |