《表6 添加双向循环神经网络的结果》

《表6 添加双向循环神经网络的结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《序列-序列模型注意力机制模块基本原理探究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从实验结果中,可以看到,在编码器或解码器一侧添加循环神经网络并没有显著的差别。随着循环神经网络层数的增加,模型可以学习到更好的词对齐。而且,在大多数情形下,机器翻译的效果都有所提升。这个实验就证明了,依赖关系的不同也是造成基于自编码网络的机器翻译系统无法学习到优质词对齐的原因之一。