《表3 GPU内存占用:基于深度学习的图像实例分割》
Mask-R-CNN掩码分支网络的前四层卷积层中的每层卷积核参数数量为256×256×3×3,偏置b的数量为256。反卷积层卷积核参数数量为256×256×2×2,偏置b的数量为256。最后一层卷积层参数数量为256×7×1×1,偏置b的数量为7。重新设计后的模型掩码分支网络分为六层,前两层卷积核参数数量均为256×3×3+256×256×1×1,偏置b的数量均为256+256。上采样层的参数数量为256×256×1×1+256。第四层卷积核参数数量为256×3×3+256×64×1×1,偏置b的数量为64+64,第五层反卷积层卷积核参数数量为64×64×2×2,偏置b的数量为64,最后一层卷积核参数数量为7×64×1×1,偏置b的数量为7。统计分别使用Mask-R-CNN和本文的模型进行训练时显存的占用,每次GPU处理一张图片,表3结果显示本文的模型需要更小的显存占用。
图表编号 | XD0039093400 严禁用于非法目的 |
---|---|
绘制时间 | 2019.02.01 |
作者 | 陈茗杨、赵志刚、潘振宽、于晓康 |
绘制单位 | 青岛大学计算机科学技术学院、青岛大学计算机科学技术学院、青岛大学计算机科学技术学院、青岛大学计算机科学技术学院 |
更多格式 | 高清、无水印(增值服务) |