《表1 实验数据设置:融合句法解析树的汉-越卷积神经机器翻译》

《表1 实验数据设置:融合句法解析树的汉-越卷积神经机器翻译》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《融合句法解析树的汉-越卷积神经机器翻译》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

在实验数据预处理中,首先利用JIEBA(https://github.com/jieba)中文分词工具对汉语进行分词,然后使用MOSES对全部训练数据进行tokenization,lowercase以及clean最终保留长度在80个词以内的句对.本实验使用的基准系统是Face Book的开源神经机器翻译模型fairseq,采用卷积神经网络进行编码、LSTM进行解码.以及Google开源的nmt模型,采用基于RNN的编码器与解码器.所有实验均使用132K的双语平行语料作为训练集.所使用的实验数据见表1.