《表1 BCISM的网络结构参数》
BCISM一共由74个卷积层构成,网络模型具体包括由DenseBlock和Transition Down组成的下采样路径,由DenseBlock和Transition Up组成的上采样路径,以及Softmax函数。其中,DenseBlock依次由4,5,7,10,12,10,7,5,4个层构成,每个层由Batch Normalization、ReLU激活函数、3×3卷积和Dropout构成。Dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃,以使每一个batch都在训练不同的网络,网络中Dropout设为0.2。Transition Down的作用是减少特征图的空间维度,由Batch Normalization、ReLU激活函数、1×1卷积与2×2池化操作组成,其中1×1的卷积用于保存特征图的数量,2×2的池化操作用于降低特征图的分辨率,以此来补偿由于网络层数大幅增加造成的特征图数量的线性增长。Transition Up由一个转置卷积构成,作用是恢复输入图像的空间分辨率。转置卷积仅对最后一个DenseBlock的特征图使用,这是由于最后一个DenseBlock综合了所有之前DenseBlock的信息。Softmax函数的作用是输出裂缝与非裂缝的概率。BCISM的网络结构参数如表1所示。
图表编号 | XD0034842400 严禁用于非法目的 |
---|---|
绘制时间 | 2019.03.25 |
作者 | 李良福、孙瑞赟 |
绘制单位 | 陕西师范大学计算机科学学院、陕西师范大学计算机科学学院 |
更多格式 | 高清、无水印(增值服务) |