《表6 Attention机制对主辅多任务模型性能的影响 (%)》

《表6 Attention机制对主辅多任务模型性能的影响 (%)》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于多任务学习的生物医学实体关系抽取》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了验证Attention机制在主辅多任务模型中的有效性,我们做了如下实验:构建不使用Attention层的主辅多任务模型,即主任务与每个辅任务的共享表示直接和主任务的私有表示拼接起来,送入主任务输出层进行分类。实验结果如表6所示,其中“STM”“MAM”“Att-MAM”分别表示单任务模型、不使用Attention和使用Attention机制的主辅多任务模型。