《表2 使用Adam的DNN部分预测结果对比》
自适应矩估计(adaptive moment estimation,简称Adam)算法可以基于训练数据迭代地更新神经网络权重,根据损失函数对每个参数梯度的一阶矩估计和二阶矩估计动态调整,为不同的参数设计独立的自适应性学习率。Adam基于梯度下降方法,但是每次迭代参数的学习步长都有确定的范围,不会因为很大的梯度导致很大的学习步长,参数值比较稳定。Adam优化方法比SGD和均方根传播(root mean square propagation,简称RMSProp)等梯度下降方法更受欢迎。图5为Adam的DNN训练结果。使用Adam的DNN部分预测结果对比如表2所示。可以看出,此训练的预测结果比使用SGD得到的预测结果更接近真实值,预测值与真实值的差距普遍在0~1之间。
图表编号 | XD00159202200 严禁用于非法目的 |
---|---|
绘制时间 | 2020.08.01 |
作者 | 周硕、余龙、吴子燕、杨海峰 |
绘制单位 | 西北工业大学力学与土木建筑学院、西北工业大学力学与土木建筑学院、西北工业大学力学与土木建筑学院、西北工业大学力学与土木建筑学院 |
更多格式 | 高清、无水印(增值服务) |