《表6 Attention机制对主辅多任务模型性能的影响 (%)》
为了验证Attention机制在主辅多任务模型中的有效性,我们做了如下实验:构建不使用Attention层的主辅多任务模型,即主任务与每个辅任务的共享表示直接和主任务的私有表示拼接起来,送入主任务输出层进行分类。实验结果如表6所示,其中“STM”“MAM”“Att-MAM”分别表示单任务模型、不使用Attention和使用Attention机制的主辅多任务模型。
图表编号 | XD0070615500 严禁用于非法目的 |
---|---|
绘制时间 | 2019.08.01 |
作者 | 李青青、杨志豪、罗凌、林鸿飞、王健 |
绘制单位 | 大连理工大学计算机科学与技术学院、大连理工大学计算机科学与技术学院、大连理工大学计算机科学与技术学院、大连理工大学计算机科学与技术学院、大连理工大学计算机科学与技术学院 |
更多格式 | 高清、无水印(增值服务) |