《表5“字段级”抽取结果展示[15]》
如表6所示,通过实验数据对照发现,融合了依存关联矩阵的BiGRU-Attention联合模型,可以较好的学习全文“篇章级”信息,并且对于关联实体对之间的识别效果较好。该方案对并购重组类公告文本中的金融实体识别准确率明显高于其它序列标注模型,相较于目前主流的BiL-STM-Attention序列标注模型的F1值提高了约3个百分点[15]。
图表编号 | XD00170286300 严禁用于非法目的 |
---|---|
绘制时间 | 2020.05.16 |
作者 | 黄胜、李胜、朱菁 |
绘制单位 | 重庆邮电大学通信与信息工程学院、重庆邮电大学光通信与网络重点实验室、重庆邮电大学通信与信息工程学院、重庆邮电大学光通信与网络重点实验室、深圳证券信息有限公司数据中心 |
更多格式 | 高清、无水印(增值服务) |