《表4 模型参数量:融合特定任务信息注意力机制的文本表示学习模型》

《表4 模型参数量:融合特定任务信息注意力机制的文本表示学习模型》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《融合特定任务信息注意力机制的文本表示学习模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

首先,各模型的参数数量如表4所示。除了Self Att模型参数达到千万级外,FTIA与LSTMAtt、Bi GRU等模型参数同处于百万级,仅比LSTMAtt多0.9%的参数。结合表3的准确率对比,可见FTIA能通过较小规模的参数集获得更优的文本理解及表达能力,进一步验证FTIA模型的可行性。