《表2 注意力机制相关方法统计》
Miwa等人[54]提出一种端对端模型来联合表示实体和关系,其中实体识别和关系抽取两个子任务共享LSTM编码层序列参数的思想,虽然考虑了两个子任务间的交互、缓解了错误传播问题,但模型学习过程仍然类似流水线方法,不属于真正意义上的联合抽取。Katiyar等[55]在深度BILSTM序列标注方法的基础上引入注意力机制,使用多层双向LSTM将实体识别子任务建模成序列标注任务,结合序列标注结果和共享编码层表示进行实体关系抽取,模型可以拓展各种预定义的关系类型,是真正意义上第一个基于神经网络的关系联合抽取模型。Zheng等人[62]提出基于新标注策略的实体关系抽取方法,将联合提取任务转化成端到端的序列标注问题而无需分别识别实体和关系,解决了流水线方法中实体冗余问题。但无论是上述的参数共享还是序列标注的联合抽取模型,均未有效解决重叠关系问题。
图表编号 | XD00163019000 严禁用于非法目的 |
---|---|
绘制时间 | 2020.06.15 |
作者 | 王传栋、徐娇、张永 |
绘制单位 | 南京邮电大学计算机学院、南京邮电大学计算机学院、南京邮电大学计算机学院 |
更多格式 | 高清、无水印(增值服务) |