《表5“字段级”抽取结果展示[15]》

《表5“字段级”抽取结果展示[15]》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向并购重组类公告的信息抽取》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

如表6所示,通过实验数据对照发现,融合了依存关联矩阵的BiGRU-Attention联合模型,可以较好的学习全文“篇章级”信息,并且对于关联实体对之间的识别效果较好。该方案对并购重组类公告文本中的金融实体识别准确率明显高于其它序列标注模型,相较于目前主流的BiL-STM-Attention序列标注模型的F1值提高了约3个百分点[15]。