《表3 COAE-2016-Task3上关系分类方法比较》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《ENT-BERT:结合BERT和实体信息的实体关系分类模型》
相比PCNN_ATT和Self Att-BLSTM模型,ENT-BERT模型在中文实体关系分类任务COAE-2016-Task3上分类效果能有如此大的提升,其主要原因如下:1)其它方法使用的词向量需要对文本序列进行分词,所以分词过程所带来的错误积累会影响实体关系分类准确性;2)因为经过BERT预训练的词向量已经是基于上下文特征的字向量,其句子向量含有丰富的文本信息,3)是本文的创新所在,即在句子向量与实体向量的结合过程中引入注意力机制使得中文实体关系分类效果进一步提升.以上种种原因使得ENT-BERT模型在COAE-2016-Task3上取得最优效果,而且F1ma比Self AttBLSTM模型提高7.39%.
图表编号 | XD00199039000 严禁用于非法目的 |
---|---|
绘制时间 | 2020.12.01 |
作者 | 张东东、彭敦陆 |
绘制单位 | 上海理工大学光电信息与计算机工程学院、上海理工大学光电信息与计算机工程学院 |
更多格式 | 高清、无水印(增值服务) |