《表1 各级别VGGNet训练时的错误率》

《表1 各级别VGGNet训练时的错误率》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于全卷积神经网络的多尺度人脸检测》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了加快VGG网络训练时的收敛速度,先训练网络结构较简单的级别A,然后用A网络的权重对后面的复杂模型进行初始化.VGG采用MultiScale方法[12]对其进行预测,将图像的尺寸调整到Q,并将图片输入到卷积网络对其进行计算.分类时采用滑窗的方式,对各组分类结果求其平均值,再对调整到尺寸Q的结果进行平均值计算,这就是最后所需要的结果,图片数据的利用率和预测准确率得到提高.在训练中,数据增强使用的也是Multi-Scale方法,将原始图像的尺寸调整到S,然后再随机裁切224*224的图片,这样做可以有效地防止模型过拟合.试验中,S的取值范围为256~512,使用Multi-Scale得到多组数据,并将这些数据集合在一起进行训练.表1是训练时得到的结果,训练时D和E的错误率为7.5%.最终作者参赛的网络结构是融合了Multi-Scale的D网络和使用Single-Scale的6个不同等级的网络,错误率有所下降,为7.3%.但是后来他们发现有别的方法可以降低错误率,所以该团队反复进行试验测试,最低错误率为6.8%左右.经过反复试验的对比,他们做出了如下总结:1)LRN层在该网络结构中起不了多大的作用,可以去除;2)网络越深其检测效果越好;3)1*1的卷积也有效果,但是没有3*3的卷积好,卷积核越大学习的特征空间越大.