《表3 基于深度学习方法的结节检测模型训练方法结果比较》
在深度学习中,神经网络的训练过程中的参数学习是基于梯度下降法进行优化的,神经网络的权重初始化方法对(Weight Initialization)对模型的收敛速度和性能有着至关重要的影响。主要讨论两种权重初始化方法,Glorot等人为了解决随机初始化的问题提出来Xavier Initialization初始化方法,适用的激活函数是sigmoid和tanh,思想是尽可能地让输入和输出服从相同的分布,这样就能够避免后面层的激活函数的输出值趋向于0,PAtech使用了这个方法;何恺明提出的一种针对ReLU的初始化方法He Initialization(Kaiming Initialization)。谢未央等人[33]采用了这个初始化方法。当隐藏层使用ReLU时,效果是比Xavier Initialization好很多。现在神经网络中,隐藏层常使用ReLU,权重初始化常用He Initialization这种方法。对所综述的基于深度学习的结节检测模型的训练方法进行了比较,如表3所示。
图表编号 | XD00163023800 严禁用于非法目的 |
---|---|
绘制时间 | 2020.07.01 |
作者 | 张福玲、张少敏 |
绘制单位 | 北方民族大学计算机科学与工程学院、北方民族大学计算机科学与工程学院 |
更多格式 | 高清、无水印(增值服务) |