《表2 激活函数loss对比值》
这个函数将0的梯度去掉,换成一个非0的梯度。一般α设置得比较小,如取0.01,即为Leaky-relu函数。类似的,设置一个参数化的Relu激活函数(Parameterised ReLU function),把α变成一个需要学习的参数,参数一般取0~1的数。如图8。在本实验中,卷积神经网络层中使用Relu激活函数,损失相对来说较低,函数非线性能力好。具体见表2。
图表编号 | XD00119685100 严禁用于非法目的 |
---|---|
绘制时间 | 2020.01.15 |
作者 | 杨雅茹、邓红霞、王哲、于海涛 |
绘制单位 | 太原理工大学信息与计算机学院、太原理工大学信息与计算机学院、太原理工大学信息与计算机学院、太原理工大学信息与计算机学院 |
更多格式 | 高清、无水印(增值服务) |