《表5 mini Image Net和CUB上不同注意力方法的性能比较》

《表5 mini Image Net和CUB上不同注意力方法的性能比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于自注意力和自编码器的少样本学习》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

与前文一致,在mini Image Net和CUB上,本节选取5-way 1-shot和5-shot对比两种方法的性能,其结果展示在表5中.在跨数据集分类场景下,本节仍选取两种网络测试所提方法的性能,其结果展示在表6中.从表5和表6可以看出,相对与基准网络,两种注意力方法都能带来性能提升,这说明为样本提取有效特征的重要性.同时,在3种分类场景下,本文所提无参数通道自注意力方法的性能均超过SENet,这一定程度上表明当动机相同时,减少参数量对少样本图像分类的意义.参数量的减少降低了模型对训练集过拟合的可能性,使得模型更适合少样本分类的场景.