《表1 训练数据:基于Back-translation的语法错误纠正》

《表1 训练数据:基于Back-translation的语法错误纠正》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Back-translation的语法错误纠正》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文在实验中,使用NUCLE[10]和Lang-8[11]作为训练语料。原始的Lang-8语料包含约80多种语言的句子,可使用语言识别工具langid.py,过滤掉原始语料中的非英语句子,以及源端错误句子和目标端纠正句子完全相同的平行句对。对于不同平行句对中源端错误句子相同的情况,仅保留其中之一,至此,筛选出大约120万条“错误-纠正”平行句对。进一步分析Lang-8语料发现,在一部分平行句对的目标端纠正句子中,包含修订者额外给出的评注。例如,“maybe you could say XXX”、“XXX is ok,but it sounds a little strange”,对于这样的平行句对,可利用手工设计的一些匹配模式,以及一些启发式规则(例如,要求目标端纠正句子和源端错误句子的长度比值不能超过1.5),将其过滤掉。最终,用于模型训练的Lang-8语料的句对数为930428。NUCLE是Co NLL-2013、Co NLL-2014语法错误纠正评测任务提供的语料,官方已经对其进行预处理,包含57151条平行句对。此外,在使用back-translation方法合成伪平行句对时,用到了WMT-2017提供的英语单语语料News Crawl 2013,原始语料包含约1500万个句子,实验中仅使用其中前100万个句子。表1给出了实验中使用的训练数据的统计信息。