《表1 不同模型运行结果比对》

《表1 不同模型运行结果比对》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于DNN与规则学习的机器翻译算法研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表1可以明显看出,在相同设置下,tagCNN和inC-NN在Dep2Str基线上的改善幅度为+1.28和+1.75BLEU,在相同设置下,其BBN-JM分别优于NIST MT04和MT05的平均值+0.36和+0.83BLEU。这些表明tagCNN和inC-NN可以在解码中分别提供区分性信息。值得注意的是,inCNN似乎比单词对齐(GIZA++)建议的附属单词更具信息性。因此,推测这是由于以下两个事实才成立的: