《表1 6 各激活函数间计算时间增量的比较》

《表1 6 各激活函数间计算时间增量的比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于ArcReLU函数的神经网络激活函数优化研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

这一结果与前3组的结果有所不同。由于每组实验都是在相同的运行环境下计算的,从以上实验结果看,ELU适合数据量较小的计算,ArcReLU适合数据量大的计算。为了确认随着数据量的增减是否对ReLU函数的计算时间有影响,在3.6节中分别计算了5组实验中,ArcReLU相较于ELU的计算时间增量和ArcReLU相较于ReLU的计算时间增量,结果如表16所示。图10显示了各激活函数在本次实验中的收敛速度。从图10可以看出实验过程中各函数的收敛速度从小到大排序为ReLU