《表3 不同模型的中文事件检测效果比较》

《表3 不同模型的中文事件检测效果比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《结合注意力机制与双向LSTM的中文事件检测方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表3可以看出,我们的ATT-BiLSTM模型在召回率和F值方面全都优于基于传统方法的Char-MEMM和Rich-L。Char-MEMM利用词语的上下文来提取词汇特征,并减少虚假论证;Rich-L使用联合模型,结合句子特征和语义特征来进行事件检测。这两种方法高度依赖于复杂的语言特征工程和自然语言处理工具。我们的ATT-BiLSTM模型是基于神经网络的方法,不需要人工设计复杂的特征,并引入BIO机制处理中文语言特定问题,可以有效避免从其他NLP工具传播的错误,如依赖关系解析和POS标记等。