《表2 实验结果对比:卷积神经网络在手写字符识别中的应用》

《表2 实验结果对比:卷积神经网络在手写字符识别中的应用》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《卷积神经网络在手写字符识别中的应用》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文通过以下实验进行对比,方案一采用传统的VGG模型,方案二是加了Batch Normalization的VGG模型,方案三是采用PReLU作为激活函数的VGG模型,方案四是全局平均池化层代替全连接层的VGG模型,方案五是本文提出的用全局平均池化代替全连接层,利用PReLU作为激活函数,加入Batch Normalization的VGG模型。实验结果如图5与表2所示。其中图5为训练过程中的损失曲线,表2为5种方案测试集的最大准确率。从图5可以看出,加入Batch Normalization之后,神经网络收敛更快,使用PReLU激活函数之后,效果比原来的更好,全局平均池化因为减少了训练参数,也较VGG模型收敛稍快,本文改进VGG模型收敛更快,参数更少,且测试准确率最高,达99.65%,验证了本文模型的有效性。