《表3 不同语言模型的PPL Tab.3 PPL of different language models》

《表3 不同语言模型的PPL Tab.3 PPL of different language models》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向汉维机器翻译的神经网络语言模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表3中的实验结果可见:编号2,3与编号1对应的模型相比,开发集和测试集的PPL均明显降低,这说明与Mikolov等[5]提出的循环神经网络语言模型相比,使用word2vec工具训练并初始化词向量能够表示词之间的依赖关系,同时加快了训练速度.编号3对应的模型采用Skip-gram方法,其实验结果要优于编号2基于CBOW方法的模型,这是因为Skipgram模型主要是利用当前词去预测附近词,考虑了更多相对位置信息,位置距离相近的词要比位置距离较远的词之间联系更加紧密,而CBOW方法只考虑了窗口之内的词,所以基于Skip-gram方法的模型PPL较低.在融入词素信息后,编号4,5与编号2,3对应模型的实验结果相比PPL明显降低(开发集的PPL最大降低了19.93),这说明在融入词素信息后确实能够达到提升语言模型性能的效果,其原因在于通过词素序列构建的词向量包含词内部结构信息,通过合并层获得的词向量包含更多词语边界的关系或者词语内部信息,有利于语言模型学习维吾尔语词的句法和语义信息.