《表3 TLAN模型变体的实验结果》

《表3 TLAN模型变体的实验结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《运用多层注意力神经网络识别中文隐式篇章关系》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了分析每一个注意力层对整个模型的贡献,本文还在多个模型的变体上进行了实验,结果如表3所示。首先以循环网络Bi-LSTM作为基础模型Base,通过在其上添加TLAN模型中的Self-Attention层和Interactive Attention层来分析注意力机制在篇章关系识别任务上的性能。为了与TLAN模型进行直观的比较,本文还构建了:(1)Bi-LSTM将模型的Self-Attention层替换为Bi-LSTM;(2)Att(Guo)将模型的第二个注意力层替换为Guo[7]提出的Interactive Attention层。