《表3 基于Transformer的NMT翻译结果》
这些转换结果如表3和表4所示。新的baseline,包括ANMT和Transformer,优于表1和表2;特别是新的Transformer (base)的BLEU得分与文献[9]中展示的结果相同。这表明本研究的baseline是强大的比较系统。在表3和表4中,+LTR和+ETR都优于Transformer (base),这表明所提出的句子级主题信息有利于NMT。+LTR取得了与表3和表4中的+ETR相当的性能,这意味着这些学习到的LTR能够捕获源主题信息。+LTR优于+SFLTR,说明动态注意主题语境比单一固定主题更能有效地预测目标词。+LTR的性能优于+DWCont,并且它们都有相似的模型参数。这表明改进来自句子级的主题信息,而不是更大的模型参数。+ETR和+LTR的BLEU评分均优于文献[9]在Transformer (big)模型中。这表明提出的方法提高了翻译性能。
图表编号 | XD00203507600 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.25 |
作者 | 杨娇 |
绘制单位 | 商洛学院人文学院 |
更多格式 | 高清、无水印(增值服务) |