《表3 模型的微调:基于预训练BERT字嵌入模型的领域实体识别》

《表3 模型的微调:基于预训练BERT字嵌入模型的领域实体识别》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于预训练BERT字嵌入模型的领域实体识别》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

结合表3,从上表可以发现无论是batch size等于32还是64,EMR-BERT+Bi-LST-M+CRF都在学习率为3e-5时候达到最优效果,BERTBASE+Bi-LSTM+CRF在Batch size=32,学习率=2e-5时,达到最高F1值为59.98,EMR-BERT+Bi-LSTM+CRF在Batch size=64,学习率=3e-5时,达到最高F1值为62.06,通过对上表的分析,我们发现,EMR-BERT+Bi-LSTM+CRF能够取得更优结果。