《表4 不同预训练模型性能》

《表4 不同预训练模型性能》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于BERT的安全事件命名实体识别研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了证明本文方法的有效性,实验首先要证明BERT预训练模型是否能够消歧并解决一词多义的问题,本文使用BERT与其他2种常用的词嵌入模型作对比实验.目前常用Glove与Word2Vec获取预训练词向量,故分别使用Word2Vec和Glove与本模型对比,以获取词向量.将通过上述3种方法获取的词向量再输入到Bi LSTM-CRF中进行实验,测试集实验结果如表4所示: