《表3 在NIN网络上的分类准确率》
将MReLU与当前常见的九种激活函数:ReLU、Leaky ReLU、PReLU、RReLU、ELU、SELU、Swish、BReLU和GReLU进行了实验对比.表3所示为各激活函数在NIN网络上的实验结果.表3中包含两行分别表示各个激活函数在CIFAR-10和CIFAR-100数据集上的准确率,其中最优结果用黑色粗体标记.由表3可见,在NIN网络结构上,MReLU激活函数在CIFAR-10和CIFAR-100两个数据集上分别均取得了最优和次优的结果,其准确率分别达到了87.96%和69.01%.
图表编号 | XD00164960200 严禁用于非法目的 |
---|---|
绘制时间 | 2020.06.01 |
作者 | 刘海、刘波、胡瑜 |
绘制单位 | 中国科学院计算技术研究所智能计算机研究中心、中国科学院大学、北京控制工程研究所、中国科学院计算技术研究所智能计算机研究中心、中国科学院大学 |
更多格式 | 高清、无水印(增值服务) |