《表2 注意力机制相关方法统计》

《表2 注意力机制相关方法统计》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《实体关系抽取综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

Miwa等人[54]提出一种端对端模型来联合表示实体和关系,其中实体识别和关系抽取两个子任务共享LSTM编码层序列参数的思想,虽然考虑了两个子任务间的交互、缓解了错误传播问题,但模型学习过程仍然类似流水线方法,不属于真正意义上的联合抽取。Katiyar等[55]在深度BILSTM序列标注方法的基础上引入注意力机制,使用多层双向LSTM将实体识别子任务建模成序列标注任务,结合序列标注结果和共享编码层表示进行实体关系抽取,模型可以拓展各种预定义的关系类型,是真正意义上第一个基于神经网络的关系联合抽取模型。Zheng等人[62]提出基于新标注策略的实体关系抽取方法,将联合提取任务转化成端到端的序列标注问题而无需分别识别实体和关系,解决了流水线方法中实体冗余问题。但无论是上述的参数共享还是序列标注的联合抽取模型,均未有效解决重叠关系问题。