《表3 不同长度评论摘要提取结果》

《表3 不同长度评论摘要提取结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于注意力机制的评论摘要生成》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

所依赖的序列到序列神经网络模型的中间层为一个定长的向量,其所能携带的信息量有限,原文越长则信息丢失越严重;另一方面,虽然LSTM结构对解决长距离依赖问题有所帮助,但是对于过长的距离仍会丢失远距离的信息.如上文所述,网络评论摘要数据更多集中于评论句首部分,该部分正是距离最远的部分,因此,模型对较长评论文本的摘要提取效果相比于较短评论文本较差.进行实验2时,分别选取不同长度范围的评论训练模型并测试模型性能,模型选择4层编码网络、4层解码网络以及改进局部注意力机制,评论长度分别选取1~100、101~200、201~300、300以上;实验数据选择Amazon电器类商品评论,实验结果如表3所示.可以看出,在评论长度达到200以上时摘要的提取性能开始有所下降.