《表1 常用卷积网络的不同层的数量统计》
当卷积神经网络的深度达到几十甚至上百层时,极易出现“梯度爆炸”“梯度消失”问题,导致模型训练无法收敛。文献[2]提出的批归一化算法是解决该问题的有效手段之一,从而得到广泛应用。表1分别统计了ResNet-50[11]、Inception V3[12]、DenseNet[12]、Yolo V3[14]模型的深度以及卷积层、批归一化层、ReLU层的数量。从表1看出,批归一化层是卷积神经网络中的重要层次,每层卷积之后都存在批归一化层对卷积结果进行归一化处理,以加速模型训练收敛速度。
图表编号 | XD00139896000 严禁用于非法目的 |
---|---|
绘制时间 | 2020.04.20 |
作者 | 王吉军、郝子宇、李宏亮 |
绘制单位 | 江南计算技术研究所、江南计算技术研究所、江南计算技术研究所 |
更多格式 | 高清、无水印(增值服务) |