《表1 不同激活函数在(MNIST上的实验结果》
在MNIST数据集上利用图4的模型测试不同激活函数得到的实验结果如表1所示。根据表1可得,提出的改进的激活函数RSLU相对于其他四种已有的激活函数来说Loss值最低,而分类精度Acc值则最高。具体来说,在训练集上,RSLU的Loss值相比于Sigmoid函数下降了约0.47,相比于ReLU函数减少了约0.04,而对于现有的激活函数Leaky-ReLU和ELU来说分别下降了约0.13和0.10。并且,RSLU的分类精度比Sigmoid函数高了19%,比ReLU函数高了1.94%,而相比于Leaky-ReLU和ELU,精度分别提升了1.66%、3.28%,证明本文提出的改进RSLU函数在卷积神经网络的图像分类问题中可以提高分类的精确率,且分类精度高于现有的激活函数。而在运行时间上,RSLU函数也比较短,比最快的ReLU函数仅多了1.55s,而比Sigmoid函数少7.56s,证明RSLU函数可以提高分类效率。
图表编号 | XD00157072100 严禁用于非法目的 |
---|---|
绘制时间 | 2020.08.05 |
作者 | 李健 |
绘制单位 | 北京信息科技大学理学院 |
更多格式 | 高清、无水印(增值服务) |