《表3 不同长度评论摘要提取结果》
所依赖的序列到序列神经网络模型的中间层为一个定长的向量,其所能携带的信息量有限,原文越长则信息丢失越严重;另一方面,虽然LSTM结构对解决长距离依赖问题有所帮助,但是对于过长的距离仍会丢失远距离的信息.如上文所述,网络评论摘要数据更多集中于评论句首部分,该部分正是距离最远的部分,因此,模型对较长评论文本的摘要提取效果相比于较短评论文本较差.进行实验2时,分别选取不同长度范围的评论训练模型并测试模型性能,模型选择4层编码网络、4层解码网络以及改进局部注意力机制,评论长度分别选取1~100、101~200、201~300、300以上;实验数据选择Amazon电器类商品评论,实验结果如表3所示.可以看出,在评论长度达到200以上时摘要的提取性能开始有所下降.
图表编号 | XD003467300 严禁用于非法目的 |
---|---|
绘制时间 | 2018.06.01 |
作者 | 苏放、王晓宇、张治 |
绘制单位 | 北京邮电大学信息与通信工程学院、无锡北邮感知技术产业研究院有限公司、北京邮电大学信息与通信工程学院、北京邮电大学信息与通信工程学院、无锡北邮感知技术产业研究院有限公司 |
更多格式 | 高清、无水印(增值服务) |