《表1 不同分类模型下的分类指标 (%)》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《融合self-attention机制的卷积神经网络文本分类模型》
表1以及图3可以知道,CNN+self-attention比Average Embedding、CNN、LSTM准确率和F1值都有着明显提高.和RCNN模型相比性能相当.这说明了混合模型在一定程度上可更好的弥补单一深度学习模型CNN、LSTM所缺失的学习能力.
图表编号 | XD0079864100 严禁用于非法目的 |
---|---|
绘制时间 | 2019.06.01 |
作者 | 邵清、马慧萍 |
绘制单位 | 上海理工大学光电信息与计算机工程学院、上海理工大学光电信息与计算机工程学院 |
更多格式 | 高清、无水印(增值服务) |