《表1 常用卷积网络的不同层的数量统计》

《表1 常用卷积网络的不同层的数量统计》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《卷积神经网络训练访存优化》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

当卷积神经网络的深度达到几十甚至上百层时,极易出现“梯度爆炸”“梯度消失”问题,导致模型训练无法收敛。文献[2]提出的批归一化算法是解决该问题的有效手段之一,从而得到广泛应用。表1分别统计了ResNet-50[11]、Inception V3[12]、DenseNet[12]、Yolo V3[14]模型的深度以及卷积层、批归一化层、ReLU层的数量。从表1看出,批归一化层是卷积神经网络中的重要层次,每层卷积之后都存在批归一化层对卷积结果进行归一化处理,以加速模型训练收敛速度。