《表1 不同激活函数在(MNIST上的实验结果》

《表1 不同激活函数在(MNIST上的实验结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《一个新的激活函数及其在图像分类的应用》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

在MNIST数据集上利用图4的模型测试不同激活函数得到的实验结果如表1所示。根据表1可得,提出的改进的激活函数RSLU相对于其他四种已有的激活函数来说Loss值最低,而分类精度Acc值则最高。具体来说,在训练集上,RSLU的Loss值相比于Sigmoid函数下降了约0.47,相比于ReLU函数减少了约0.04,而对于现有的激活函数Leaky-ReLU和ELU来说分别下降了约0.13和0.10。并且,RSLU的分类精度比Sigmoid函数高了19%,比ReLU函数高了1.94%,而相比于Leaky-ReLU和ELU,精度分别提升了1.66%、3.28%,证明本文提出的改进RSLU函数在卷积神经网络的图像分类问题中可以提高分类的精确率,且分类精度高于现有的激活函数。而在运行时间上,RSLU函数也比较短,比最快的ReLU函数仅多了1.55s,而比Sigmoid函数少7.56s,证明RSLU函数可以提高分类效率。