《表1 不同激活函数拟合方式》

《表1 不同激活函数拟合方式》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《一种神经网络的可配置激活函数模块设计》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

其中ReLU、Leaky ReLU和PReLU都可看作是两段一次函数的组合,则可以分为两段的一元一次函数,并且没有误差。Sigmoid、Tanh和ELU需要分段进行分段逼近,每一个分段得到一个一元四次函数。具体拟合方式如表1所列。