《表5 模型的各个部分在验证集上的实验结果》

《表5 模型的各个部分在验证集上的实验结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Pre-RoBERTa-MTL的中文机器阅读理解模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
单位:%

其中BMANet是2019年机器阅读理解任务冠军队伍的成绩,Du Reader Baseline为百度官方在2019年竞赛中发布的增强版基线模型,Bi DAF+Self-Attention+MTL为本文在2019年竞赛中的参赛模型,在竞赛最终评测中排名第13,证明了辅助任务的有效性,从该表中可以看出BERT对机器阅读理解任务有较大提升,相较于早期出现的Bi DAF和Match-LSTM有巨大的飞跃。为了研究本文中模型中各个模块的效果,进行了模型的分解对比实验。实验结果见表5。