《表4 ReLU-Swish激活函数CIFAR-10、MNIST测试》

《表4 ReLU-Swish激活函数CIFAR-10、MNIST测试》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Tensorflow对卷积神经网络的优化研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

如图15,16所示,在测试中可以明显得出ReLU-Swish激活函数的收敛速度相较于Swish激活函数的收敛速度更快。在准确率上,在卷积核为10的小型卷积神经网络测试模型下,取3次CIFAR-10、MNIST训练集训练模型结果的平均accuracy的结果如表4、5所示,ReLU-Swish激活函数的准确率为97.52%,而Swish激活函数的准确率为96.7%,所以在准确率上ReLU-Swish激活函数也有所提升。