《表5 CMRC2018阅读理解任务效果》

《表5 CMRC2018阅读理解任务效果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《预训练语言模型BERT在下游任务中的应用》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

3)实验结果分析。为了对模型效果进行评估,我们将BERT模型和以下两个基线模型进行对比:GM-Reader模型(采用单层Bi-GRU模型)和MCA-Reader[15]模型(采用多层Bi-GRU模型并引入了语法、实体识别、后处理等策略),并用EM和F1值作为衡量模型性能的指标。BERT模型和基线模型的性能见表5,从表中可以看出BERT模型比GM-Reader模型在F1值和EM值上分别提高4.412和4.98。由于MCA-Reader模型在GRU模型的基础上添加了语法等信息,效果比单纯使用BERT模型在F1值和EM分别高1.3和2.88。可以考虑为BERT模型也添加语法等信息,从而进一步提高BERT模型的性能。