《表5 模型的各个部分在验证集上的实验结果》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Pre-RoBERTa-MTL的中文机器阅读理解模型》
单位:%
其中BMANet是2019年机器阅读理解任务冠军队伍的成绩,Du Reader Baseline为百度官方在2019年竞赛中发布的增强版基线模型,Bi DAF+Self-Attention+MTL为本文在2019年竞赛中的参赛模型,在竞赛最终评测中排名第13,证明了辅助任务的有效性,从该表中可以看出BERT对机器阅读理解任务有较大提升,相较于早期出现的Bi DAF和Match-LSTM有巨大的飞跃。为了研究本文中模型中各个模块的效果,进行了模型的分解对比实验。实验结果见表5。
图表编号 | XD00197791400 严禁用于非法目的 |
---|---|
绘制时间 | 2020.12.31 |
作者 | 代寒静、涂新辉 |
绘制单位 | 华中师范大学计算机学院、华中师范大学计算机学院 |
更多格式 | 高清、无水印(增值服务) |