《表1 Wang-Net1模型各层参数汇总》
在Wang-Net1模型中,输入图像的尺寸大小为64×64像素,特征图的数量为128,即Conv1输入大小为64×64×128.第1个卷积层Conv1使用128个大小为3×3的卷积核进行卷积,Conv1输出的特征图大小变为62×62卷积后,经过一层最大池化层Pool1,特征图的大小减半为31×31.第2个卷积层Conv2使用256个大小为3×3的卷积核进行卷积,此时Conv2特征图的输出为29×29×256.再经过最大池化层Pool2后,特征图大小变为15×15.第3个卷积层Conv3使用384个大小为3×3的卷积核进行卷积,卷积后Conv3的输出变为13×13×384.Wang-Net1模型各层的输入大小、卷积核大小、特征图数量等参数情况如表1所示.卷积层之后通常使用非线性激活函数(sigmoid,tanh等)处理特征图,以此获得非线性操作.但用不饱和非线性函数(non-saturating nonlinearity)不仅可以加快收敛速度,还能解决梯度消失问题.目前,在CNN中常用的不饱和非线性函数主要是ReLU函数.本文将ReLU激活函数应用于Wang-Net1模型中的Pool2层后,不仅具有单侧抑制性,使网络在训练时不易出现梯度消散且大型数据集上训练的大型模型能够快速收敛,而且还能获得较好的稀疏性输出.用ReLU激活函数的CNN模型比用其他激活函数的模型训练速度更快,能够较快达到收敛状态,大大节约了训练时间.
图表编号 | XD00108898400 严禁用于非法目的 |
---|---|
绘制时间 | 2019.09.30 |
作者 | 王灿军、廖鑫、陈嘉欣、秦拯、刘绪崇 |
绘制单位 | 湖南大学信息科学与工程学院、湖南大学大数据研究与应用湖南省重点实验室、湖南大学信息科学与工程学院、湖南警察学院网络犯罪侦查湖南省重点实验室、湖南大学信息科学与工程学院、湖南大学大数据研究与应用湖南省重点实验室、湖南大学信息科学与工程学院、湖南大学大数据研究与应用湖南省重点实验室、湖南警察学院网络犯罪侦查湖南省重点实验室 |
更多格式 | 高清、无水印(增值服务) |