《表3 TLAN模型变体的实验结果》
为了分析每一个注意力层对整个模型的贡献,本文还在多个模型的变体上进行了实验,结果如表3所示。首先以循环网络Bi-LSTM作为基础模型Base,通过在其上添加TLAN模型中的Self-Attention层和Interactive Attention层来分析注意力机制在篇章关系识别任务上的性能。为了与TLAN模型进行直观的比较,本文还构建了:(1)Bi-LSTM将模型的Self-Attention层替换为Bi-LSTM;(2)Att(Guo)将模型的第二个注意力层替换为Guo[7]提出的Interactive Attention层。
图表编号 | XD0070611300 严禁用于非法目的 |
---|---|
绘制时间 | 2019.08.01 |
作者 | 徐昇、王体爽、李培峰、朱巧明 |
绘制单位 | 苏州大学计算机科学与技术学院、江苏省计算机信息技术处理重点实验室、苏州大学计算机科学与技术学院、江苏省计算机信息技术处理重点实验室、苏州大学计算机科学与技术学院、江苏省计算机信息技术处理重点实验室、苏州大学计算机科学与技术学院、江苏省计算机信息技术处理重点实验室 |
更多格式 | 高清、无水印(增值服务) |