《表2 使用Adam的DNN部分预测结果对比》

《表2 使用Adam的DNN部分预测结果对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于深度学习的传感器优化布置方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

自适应矩估计(adaptive moment estimation,简称Adam)算法可以基于训练数据迭代地更新神经网络权重,根据损失函数对每个参数梯度的一阶矩估计和二阶矩估计动态调整,为不同的参数设计独立的自适应性学习率。Adam基于梯度下降方法,但是每次迭代参数的学习步长都有确定的范围,不会因为很大的梯度导致很大的学习步长,参数值比较稳定。Adam优化方法比SGD和均方根传播(root mean square propagation,简称RMSProp)等梯度下降方法更受欢迎。图5为Adam的DNN训练结果。使用Adam的DNN部分预测结果对比如表2所示。可以看出,此训练的预测结果比使用SGD得到的预测结果更接近真实值,预测值与真实值的差距普遍在0~1之间。