《表3 问句分类模型的分类结果》
由表3可知,对于不同的迭代次数,基于BERT的微调分类模型与另外两个模型相比,其准确率、精确率和召回率均高几个百分点。当三个模型同时训练100迭代次数时,对于F1值指标,基于BERT的微调分类模型F1值为91.92%,比Transformer分类模型高2.62个百分点,比利用双向长短期记忆自注意力网络分类模型高4.46个百分点,表明:基于BERT的微调分类模型的问句分类效果最优,Transformer分类模型居中,双向长短期记忆自注意力网络分类模型结果稍差。
图表编号 | XD00163187800 严禁用于非法目的 |
---|---|
绘制时间 | 2020.06.10 |
作者 | 杨国峰、杨勇 |
绘制单位 | 中国农业科学院农业信息研究所、农业农村部农业大数据重点实验室、中国农业科学院农业信息研究所、农业农村部农业大数据重点实验室 |
更多格式 | 高清、无水印(增值服务) |