《表1 MReLU与常见激活函数的比较》
依据激活函数中是否包含可学习参数,可将激活函数分为两大类型:自适应激活函数和非自适应激活函数.本文所提的MReLU属于自适应激活函数.表1对比了非自适应激活函数ReLU,Leaky ReLU/RReLU,ELU,SELU,Swish和BReLU,以及自适应激活函数PReLU、GReLU和本文所提MReLU的差异和特性.其中ReLU只有正值域中的梯度,因此容易导致网络中存在失效神经单元.Leaky ReLU和RReLU通过引入一个非学习数值,在ReLU的基础上增加了一个负值域上的线性梯度响应.ELU/SELU则通过引入一个非线性函数来提供负值域中的梯度响应.Swish改进了Sigmoid函数,缓解了右侧区间上的梯度饱和.非自适应激活函数通常灵活性较低,无法充分利用数据中的信息,也无法为处于不同激活程度的像素点提供特定的梯度响应.
图表编号 | XD00164960400 严禁用于非法目的 |
---|---|
绘制时间 | 2020.06.01 |
作者 | 刘海、刘波、胡瑜 |
绘制单位 | 中国科学院计算技术研究所智能计算机研究中心、中国科学院大学、北京控制工程研究所、中国科学院计算技术研究所智能计算机研究中心、中国科学院大学 |
更多格式 | 高清、无水印(增值服务) |