《表2 不同模型的译文示例》
从表2中第一组句子可以看出Transformer模型的译文出现了翻译结果不准确现象,漏掉翻译了哈勃“Hubble”与轨迹“quy~?a·o”等词语.而在第二组句子中,Transformer模型的译文与第一组数据相比,出现了更多的漏翻译情况,例如边缘“Ca·nh”、衍射“nhiê~xa·”、柔和“Mê`m”等.出现以上问题的原因是漏翻译的词汇在训练语料出现的次数较少,Transformer模型无法很好地学习低频词的语义表示.本文采取了迁移学习与枢轴语言的思想,使得汉越NMT的编码器能更好地表示源语言的语义信息,解码器可以学习目标端语言的先验知识,因此TLNMT-CV取得了更好的翻译效果.
图表编号 | XD00213102400 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.28 |
作者 | 黄继豪、余正涛、于志强、文永华 |
绘制单位 | 昆明理工大学信息工程与自动化学院云南省人工智能重点实验室、昆明理工大学信息工程与自动化学院云南省人工智能重点实验室、昆明理工大学信息工程与自动化学院云南省人工智能重点实验室、昆明理工大学信息工程与自动化学院云南省人工智能重点实验室 |
更多格式 | 高清、无水印(增值服务) |