《表3 训练集规模对所提方法分类性能的影响(%)》

《表3 训练集规模对所提方法分类性能的影响(%)》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《面向图像分类的基于注意力引导的Dropout》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注:上表:当CIFAR-10数据集的训练集规模逐渐减少时,各个方法的分类性能(%)对比(0.200:训练集规模是原规模的0.2倍,以此类推)。下表:所提方法AD的实验结果与其他方法结果通过配对样本T检验计算出的P值(***:p≤0.001;**:0.001

众所周知,过拟合问题在训练集规模较小时,会愈加严重。为了进一步探究本文方法对过拟合问题的抑制能力,可通过逐渐减小训练数据集规模并保持测试集规模不变的方式进行评估。使用预训练完成的VGG16网络作为特征提取器,在CIFAR-10数据集上进行了实验。表3为不同方法在不同规模训练数据集上的分类性能对比。每组实验重复10次。当训练集规模逐渐减少时,各个方法的性能均有明显的下降。此外,本文方法几乎在所有情况下均获得了最佳的性能,这表明AD相比于其他同类方法,抑制过拟合的能力更加有效。最后,将对比方法与AD的实验结果进行了配对样本t检验,选择置信水平?为0.01。结果表明,本文方法相比于其他方法的性能提升是显著的。