《表3 模型的微调:基于预训练BERT字嵌入模型的领域实体识别》
结合表3,从上表可以发现无论是batch size等于32还是64,EMR-BERT+Bi-LST-M+CRF都在学习率为3e-5时候达到最优效果,BERTBASE+Bi-LSTM+CRF在Batch size=32,学习率=2e-5时,达到最高F1值为59.98,EMR-BERT+Bi-LSTM+CRF在Batch size=64,学习率=3e-5时,达到最高F1值为62.06,通过对上表的分析,我们发现,EMR-BERT+Bi-LSTM+CRF能够取得更优结果。
图表编号 | XD00137032600 严禁用于非法目的 |
---|---|
绘制时间 | |
作者 | 丁龙、文雯、林强 |
绘制单位 | 南华大学计算机学院、南华大学计算机学院、南华大学计算机学院 |
更多格式 | 高清、无水印(增值服务) |