《表2 实验结果对比:卷积神经网络在手写字符识别中的应用》
本文通过以下实验进行对比,方案一采用传统的VGG模型,方案二是加了Batch Normalization的VGG模型,方案三是采用PReLU作为激活函数的VGG模型,方案四是全局平均池化层代替全连接层的VGG模型,方案五是本文提出的用全局平均池化代替全连接层,利用PReLU作为激活函数,加入Batch Normalization的VGG模型。实验结果如图5与表2所示。其中图5为训练过程中的损失曲线,表2为5种方案测试集的最大准确率。从图5可以看出,加入Batch Normalization之后,神经网络收敛更快,使用PReLU激活函数之后,效果比原来的更好,全局平均池化因为减少了训练参数,也较VGG模型收敛稍快,本文改进VGG模型收敛更快,参数更少,且测试准确率最高,达99.65%,验证了本文模型的有效性。
图表编号 | XD00122261900 严禁用于非法目的 |
---|---|
绘制时间 | 2020.01.15 |
作者 | 丁蒙、戴曙光、于恒 |
绘制单位 | 上海理工大学光电信息与计算机工程学院、上海理工大学光电信息与计算机工程学院、上海理工大学光电信息与计算机工程学院 |
更多格式 | 高清、无水印(增值服务) |