《表4 ReLU-Swish激活函数CIFAR-10、MNIST测试》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Tensorflow对卷积神经网络的优化研究》
如图15,16所示,在测试中可以明显得出ReLU-Swish激活函数的收敛速度相较于Swish激活函数的收敛速度更快。在准确率上,在卷积核为10的小型卷积神经网络测试模型下,取3次CIFAR-10、MNIST训练集训练模型结果的平均accuracy的结果如表4、5所示,ReLU-Swish激活函数的准确率为97.52%,而Swish激活函数的准确率为96.7%,所以在准确率上ReLU-Swish激活函数也有所提升。
图表编号 | XD00119665700 严禁用于非法目的 |
---|---|
绘制时间 | 2020.01.01 |
作者 | 郭敏钢、宫鹤 |
绘制单位 | 吉林农业大学信息技术学院、吉林农业大学吉林省智能环境工程研究中心、吉林农业大学吉林省农业物联网科技协同创新中心、吉林农业大学信息技术学院、吉林农业大学吉林省智能环境工程研究中心、吉林农业大学吉林省农业物联网科技协同创新中心 |
更多格式 | 高清、无水印(增值服务) |