《表3 Gigaword测试集实验结果%》

《表3 Gigaword测试集实验结果%》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《利用层级交互注意力的文本摘要方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表3可以看出,本文提出的两种层级交互注意力策略在Greedy和Beam Search两种搜索策略下均取得了相较其他基准模型更优的性能。这也证明了通过引入层级交互注意力机制,利用模型不同层次的信息来指导解码过程是有效的。特别与Our_s2s基准模型相比,性能最优的Cross_s2s(Beam)模型在3个指标RG-1、RG-2和RG-L上分别取得了3.35、2.01和3.01的性能提升。相比在编码端改进的SEASS(Beam)和CGU(Beam)模型,Cross_s2s(Beam)在RG-1指标上仍然分别取得了0.82和0.66的提升,这也证明了融合编码端不同层次的上下文信息相比仅利用其高层特征更有效。另外从表3中可以看出,Cross_s2s相比Intra_s2s在Greedy和Beam搜索策略下,模型性能都取得了更好的性能。这一现象可以解释为:相比Intra_s2s模型,Cross_s2s模型利用不同层次上下文信息的方式更加直接,这在一定程度上也减少了信息的损失。