《表3 在NIN网络上的分类准确率》

《表3 在NIN网络上的分类准确率》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《多斜率自适应卷积神经网络激活函数》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

将MReLU与当前常见的九种激活函数:ReLU、Leaky ReLU、PReLU、RReLU、ELU、SELU、Swish、BReLU和GReLU进行了实验对比.表3所示为各激活函数在NIN网络上的实验结果.表3中包含两行分别表示各个激活函数在CIFAR-10和CIFAR-100数据集上的准确率,其中最优结果用黑色粗体标记.由表3可见,在NIN网络结构上,MReLU激活函数在CIFAR-10和CIFAR-100两个数据集上分别均取得了最优和次优的结果,其准确率分别达到了87.96%和69.01%.