《表3 使用平行语料训练WMT 2018QE任务中德语→英语语言方向验证集上的结果》
值得关注的是,BERT+信息交互的模型对于基础模型的变化非常敏感.相比于以Original Trained Multi-BERT作为基础模型,在Parallel Trained Multi-BERT上微调能够在Pearson相关性上取得近4个百分点的提升.
图表编号 | XD00140611600 严禁用于非法目的 |
---|---|
绘制时间 | 2020.03.28 |
作者 | 陆金梁、张家俊 |
绘制单位 | 中国科学院自动化研究所模式识别国家重点实验室、中国科学院大学、中国科学院自动化研究所模式识别国家重点实验室、中国科学院大学 |
更多格式 | 高清、无水印(增值服务) |