《表4 各个模型的实验结果对比》

《表4 各个模型的实验结果对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Pre-RoBERTa-MTL的中文机器阅读理解模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
单位:%

由表3看出,直接将Ro BERTa的最后一层作为上下文嵌入有着比较好的效果。因此,在后续的实验中都采用了这种方式。把实验结果与百度提供的基线模型以及在2019年参赛的一些优秀的阅读理解模型进行了比较,在Du Reader 2的两个验证集的实验结果见表4。