《表2 不同模型的译文示例》

《表2 不同模型的译文示例》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于迁移学习的汉越神经机器翻译》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表2中第一组句子可以看出Transformer模型的译文出现了翻译结果不准确现象,漏掉翻译了哈勃“Hubble”与轨迹“quy~?a·o”等词语.而在第二组句子中,Transformer模型的译文与第一组数据相比,出现了更多的漏翻译情况,例如边缘“Ca·nh”、衍射“nhiê~xa·”、柔和“Mê`m”等.出现以上问题的原因是漏翻译的词汇在训练语料出现的次数较少,Transformer模型无法很好地学习低频词的语义表示.本文采取了迁移学习与枢轴语言的思想,使得汉越NMT的编码器能更好地表示源语言的语义信息,解码器可以学习目标端语言的先验知识,因此TLNMT-CV取得了更好的翻译效果.