《表2 神经网络机器翻译架构对比实验结果Tab.2 Comparative experiments of neural network machine translation architecture

《表2 神经网络机器翻译架构对比实验结果Tab.2 Comparative experiments of neural network machine translation architecture   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于增量式自学习策略的多语言翻译模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注:BLEU4-SBP值为4元严格惩罚的BLEU值,下同.

为了实现更好的翻译效果,在架构的选择上本研究对比了清华大学机器翻译演示系统(THUMT,https:∥github.com/thumt/THUMT)提供的RNNSearch和Transformer两个架构,在JAZH数据集上进行实验,采用相同的预处理方法,在日中开发集上检验模型的翻译性能,采用BLEU[18]作为评价指标,实验结果如表2所示,可见Transformer架构显著优于RNNSearch架构.本研究分析认为:深层模型和自注意力对于捕获长距离信息更为有效,而该翻译任务是专利领域,句子较长,所以Transformer的优势较为明显.因此,本研究选择Transformer模型进行后续的实验.