《表3 连接请求报文结构:基于自注意力和自编码器的少样本学习》

《表3 连接请求报文结构:基于自注意力和自编码器的少样本学习》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于自注意力和自编码器的少样本学习》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

表1~表3的数据从一定程度上反映出相比于自编码器的方法,通道自注意力方法在少样本学习上有更好的性能.本文认为其原因之一在于通道自注意力方法是无参数的,这能有效避免少样本学习中比较严重的模型迁移能力弱问题.除此之外,通道自注意力方法对每个样本的特征提取过程进行调节,其对特征提取的影响范围比自编码器方法更大.这两种原因导致通道自注意力方法取得了更好的性能.通道自注意力方法和自编码器方法结合能进一步带来性能提升,本文认为其原因为两种方法的关注点不同,自编码器旨在更深入挖掘训练集中的可用信息,这在通道自注意方法中并没有体现,两者具有一定的互补性,故能进一步提升性能.