《表1 BERT-Bi LSTM-CRF与其他方法的比较[17]》

《表1 BERT-Bi LSTM-CRF与其他方法的比较[17]》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向少量标注数据的命名实体识别研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

其中BERT作为语义表示输入,Bi LSTM抽取特征,CRF获取概率最大标签。与传统的NER模型相比,该模型最关键的是BERT语言模型的引入,BERT通过无监督建模的方式学习海量互联网语义信息,能充分表征实体的语义信息。在人民日报(1998年)语料中进行实验,实验结果(如表1)表明,基于BERT的预训练迁移学习模型能有效提高分类的准确率。