《表4 在Res Net18网络上的分类准确率》

《表4 在Res Net18网络上的分类准确率》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《多斜率自适应卷积神经网络激活函数》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

通过对比表3和表4中的数据,得到以下三个观察———第一:CIFAR-100数据集上MReLU在NIN网络中的准确率为69.01%,低于GReLU的70.41%,而在其他实验配置(NIN网络中的CIFAR-10,ResNet18网络中的CIFAR-10和CIFAR-100)中MReLU的分类准确率均高于GReLU.这一现象说明,MReLU比GReLU具有明显的性能优势,这一优势主要来自于MReLU更加灵活的函数可选择性.第二:ResNet18网络结构中MReLU在CIFAR-10数据集上准确率为88.56%比次优的Swish高出了0.08%,而在CIFAR-100数据集上MReLU的准确率为73.54%仅比次优的SELU高出了0.02%.这一现象说明在同等网络结构下,随着数据集复杂度的提升,将减弱激活函数差异对网络性能的影响.第三:CIFAR-10数据集上MReLU在NIN网络中的准确率为87.96%比次优的RReLU高出了0.29%,而在ResNet18网络中MReLU的准确率为88.56%仅比次优的Swish高出了0.08%.这一现象说明在同一数据集上,随着网络结构复杂度的提升,激活函数的差异对网络性能的影响减弱.