《表4 各个模型的实验结果对比》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Pre-RoBERTa-MTL的中文机器阅读理解模型》
单位:%
由表3看出,直接将Ro BERTa的最后一层作为上下文嵌入有着比较好的效果。因此,在后续的实验中都采用了这种方式。把实验结果与百度提供的基线模型以及在2019年参赛的一些优秀的阅读理解模型进行了比较,在Du Reader 2的两个验证集的实验结果见表4。
图表编号 | XD00197790700 严禁用于非法目的 |
---|---|
绘制时间 | 2020.12.31 |
作者 | 代寒静、涂新辉 |
绘制单位 | 华中师范大学计算机学院、华中师范大学计算机学院 |
更多格式 | 高清、无水印(增值服务) |