《表3 基于Transformer的NMT翻译结果》

《表3 基于Transformer的NMT翻译结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于句子级上下文内容的神经机器翻译方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

这些转换结果如表3和表4所示。新的baseline,包括ANMT和Transformer,优于表1和表2;特别是新的Transformer (base)的BLEU得分与文献[9]中展示的结果相同。这表明本研究的baseline是强大的比较系统。在表3和表4中,+LTR和+ETR都优于Transformer (base),这表明所提出的句子级主题信息有利于NMT。+LTR取得了与表3和表4中的+ETR相当的性能,这意味着这些学习到的LTR能够捕获源主题信息。+LTR优于+SFLTR,说明动态注意主题语境比单一固定主题更能有效地预测目标词。+LTR的性能优于+DWCont,并且它们都有相似的模型参数。这表明改进来自句子级的主题信息,而不是更大的模型参数。+ETR和+LTR的BLEU评分均优于文献[9]在Transformer (big)模型中。这表明提出的方法提高了翻译性能。