《表3 COAE-2016-Task3上关系分类方法比较》

《表3 COAE-2016-Task3上关系分类方法比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《ENT-BERT:结合BERT和实体信息的实体关系分类模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

相比PCNN_ATT和Self Att-BLSTM模型,ENT-BERT模型在中文实体关系分类任务COAE-2016-Task3上分类效果能有如此大的提升,其主要原因如下:1)其它方法使用的词向量需要对文本序列进行分词,所以分词过程所带来的错误积累会影响实体关系分类准确性;2)因为经过BERT预训练的词向量已经是基于上下文特征的字向量,其句子向量含有丰富的文本信息,3)是本文的创新所在,即在句子向量与实体向量的结合过程中引入注意力机制使得中文实体关系分类效果进一步提升.以上种种原因使得ENT-BERT模型在COAE-2016-Task3上取得最优效果,而且F1ma比Self AttBLSTM模型提高7.39%.