《表4 中文蕴含语块-类型识别任务上各系统的性能》

《表4 中文蕴含语块-类型识别任务上各系统的性能》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《中文文本蕴含类型及语块识别方法研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

以上4个实验的输入均保持一致,仅在系统的模型结构部分不同.从表4看出,BERT(61.58%)在测试集上的表现优于ESIM(52.80%).这证实了BERT模型在蕴含语块-类型识别任务上的有效性,其使用更加灵活,更能学习上下文的关系,对前后语块联系密切的边界标注任务十分友好.BERT+Bi LSTM+CRF(62.06%)比Bi LSTM+CRF(50.92%)高11.14%,提升显著.而BERT+Bi LSTM+CRF(62.06%)只比BERT(61.58%)高0.48%,提升效果并不明显.在有BERT的情况下,将句对作为整体输入,加上Segment Label以区分前后句,使得BERT+Bi LSTM+CRF在句对标注任务上有更好的结果,然而Bi LSTM+CRF在其中作用有限.虽然Bi LSTM+CRF广泛应用在与命名实体识别相关的任务中,在单句标注任务上表现较好,但是本任务更关注句对之间的联合信息,Bi LSTM+CRF的实验效果在句对标注任务上不是很理想.