《表1 三种类型激活函数的实验结果》
从图3可以看出,Sigmoid函数与TanH函数的输入值越趋向于0,那么其就会呈现出较好的激活性,产生较大的梯度,但梯度会随着输入值的不断增大或不断减小而向0靠拢。经残差公式(3)计算后,发现其结果几乎为0,这样的结果容易导致梯度扩散问题的产生,进而使网络训练以失败告终;而ReLu函数的输入值>0时,其梯度为1,能够较好地解决梯度扩散的问题,同时与其他两种激活函数相比,其运算速度存在一定的优势。从理论角度已经表明了上文选取Relu函数所作为激活函数的可行性,为了进一步证明此观点,接下来进行了实验分析,得到的结果如表1所示。
图表编号 | XD00132511000 严禁用于非法目的 |
---|---|
绘制时间 | 2020.02.25 |
作者 | 王尤河、游日晴、郑力勇、文春华 |
绘制单位 | 中国南方电网有限责任公司超高压输电公司广州局、中国南方电网有限责任公司超高压输电公司广州局、中国南方电网有限责任公司超高压输电公司广州局、中国南方电网有限责任公司超高压输电公司广州局 |
更多格式 | 高清、无水印(增值服务) |