《表1 Wang-Net1模型各层参数汇总》

《表1 Wang-Net1模型各层参数汇总》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于卷积神经网络的面部图像修饰检测》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

在Wang-Net1模型中,输入图像的尺寸大小为64×64像素,特征图的数量为128,即Conv1输入大小为64×64×128.第1个卷积层Conv1使用128个大小为3×3的卷积核进行卷积,Conv1输出的特征图大小变为62×62卷积后,经过一层最大池化层Pool1,特征图的大小减半为31×31.第2个卷积层Conv2使用256个大小为3×3的卷积核进行卷积,此时Conv2特征图的输出为29×29×256.再经过最大池化层Pool2后,特征图大小变为15×15.第3个卷积层Conv3使用384个大小为3×3的卷积核进行卷积,卷积后Conv3的输出变为13×13×384.Wang-Net1模型各层的输入大小、卷积核大小、特征图数量等参数情况如表1所示.卷积层之后通常使用非线性激活函数(sigmoid,tanh等)处理特征图,以此获得非线性操作.但用不饱和非线性函数(non-saturating nonlinearity)不仅可以加快收敛速度,还能解决梯度消失问题.目前,在CNN中常用的不饱和非线性函数主要是ReLU函数.本文将ReLU激活函数应用于Wang-Net1模型中的Pool2层后,不仅具有单侧抑制性,使网络在训练时不易出现梯度消散且大型数据集上训练的大型模型能够快速收敛,而且还能获得较好的稀疏性输出.用ReLU激活函数的CNN模型比用其他激活函数的模型训练速度更快,能够较快达到收敛状态,大大节约了训练时间.