《表1 2500次后各种准确率出现的概率》
在数据训练过程中,常见的随机梯度下降算法效果不是很好,参数调整影响效果很大。根据得到的cost函数,通过GradientDescentOptimizer优化器更新权重W和偏置b变量,但是数据本身的scale如果差异很大,那么造成W的差异很大。而AdamOptimizer优化器则可以消除这种现象,引用Adam方法的同时就是引入Momentum和RMSProp,Momentum可以抵消震动的幅度,RMSProp可以使用较大的学习率加快速度。表1为两种算法执行2500次后训练过程的对比(每百次训练打印一次)。
图表编号 | XD00152878900 严禁用于非法目的 |
---|---|
绘制时间 | 2020.06.30 |
作者 | 魏峰、山磊 |
绘制单位 | 南京理工大学紫金学院电子工程与光电技术工程学院、连云港职业技术学院机电工程学院 |
更多格式 | 高清、无水印(增值服务) |