《表1 非线性激活函数计算效率对比表》

《表1 非线性激活函数计算效率对比表》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《优化非线性激活函数-全局卷积神经网络的物体识别算法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本部分对32层Re LU、PRe LU、ELU和MPELU分别训练700k次迭代,再计算单次迭代时间的平均值.具体结果如表1所示.通过表1可知,虽然MPELU引入了额外的参数,但是单次迭代所需要的平均时间与其他方法相近,甚至还有所减少.