《表2 激活函数loss对比值》

《表2 激活函数loss对比值》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《浅层特征融合引导的深层网络行人检测》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

这个函数将0的梯度去掉,换成一个非0的梯度。一般α设置得比较小,如取0.01,即为Leaky-relu函数。类似的,设置一个参数化的Relu激活函数(Parameterised ReLU function),把α变成一个需要学习的参数,参数一般取0~1的数。如图8。在本实验中,卷积神经网络层中使用Relu激活函数,损失相对来说较低,函数非线性能力好。具体见表2。