《表1 不同学习率的Dice系数》

《表1 不同学习率的Dice系数》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《应用深度学习网络实现肾小球滤过膜超微病理图像的语义分割》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

学习率的大小决定了梯度下降过程中权重更新步长的大小。如果学习率太小,过小的更新步长将要花费更多的时间使Loss函数到达最小值,还有可能陷入局部最小值;而如果学习率太大,过大的更新步长会越过最小值,使Loss函数在最小值附近震荡,难以收敛。本实验为探究合适的学习率,分别使用了4个不同的学习率进行训练,所得4组的Loss曲线如图8所示,图中横坐标为迭代次数,纵坐标为Loss计算数值,蓝色曲线为训练集Loss曲线,橙色曲线为验证集Loss曲线。这4个不同学习率模型的分割结果如表1所示。(1)当选取学习率为0.001和0.000 1时,训练集和验证集Loss曲线出现了震荡,学习率选取偏大;(2)当学习率选取为0.000 01时,虽然Loss曲线震荡没有0.000 1时那么严重,但Dice系数却略低,其原因可能是陷入了局部最小值;(3)当学习率选取为0.000 001时,训练集和验证集的Loss曲线还处于下降趋势,1 000次的训练未能收敛,导致Dice系数较差。所以选取0.000 1作为最佳学习率,进行接下来的GFM分割实验。