《表3 训练集规模对所提方法分类性能的影响(%)》
注:上表:当CIFAR-10数据集的训练集规模逐渐减少时,各个方法的分类性能(%)对比(0.200:训练集规模是原规模的0.2倍,以此类推)。下表:所提方法AD的实验结果与其他方法结果通过配对样本T检验计算出的P值(***:p≤0.001;**:0.001
众所周知,过拟合问题在训练集规模较小时,会愈加严重。为了进一步探究本文方法对过拟合问题的抑制能力,可通过逐渐减小训练数据集规模并保持测试集规模不变的方式进行评估。使用预训练完成的VGG16网络作为特征提取器,在CIFAR-10数据集上进行了实验。表3为不同方法在不同规模训练数据集上的分类性能对比。每组实验重复10次。当训练集规模逐渐减少时,各个方法的性能均有明显的下降。此外,本文方法几乎在所有情况下均获得了最佳的性能,这表明AD相比于其他同类方法,抑制过拟合的能力更加有效。最后,将对比方法与AD的实验结果进行了配对样本t检验,选择置信水平?为0.01。结果表明,本文方法相比于其他方法的性能提升是显著的。
图表编号 | XD00194633200 严禁用于非法目的 |
---|---|
绘制时间 | 2021.02.01 |
作者 | 常东良、尹军辉、谢吉洋、孙维亚、马占宇 |
绘制单位 | 北京邮电大学人工智能学院、北京邮电大学人工智能学院、北京邮电大学人工智能学院、南水北调中线信息科技有限公司、北京邮电大学人工智能学院 |
更多格式 | 高清、无水印(增值服务) |