《表1 MINST数据集对比实验》
数值验证基于深度学习框架Tensorflow,并分别在MINST和Cifar10数据集上进行,比较激活函数为Xwish,ReLU,LReLU,Tanh时的运行精度.所有实验都采用相同的卷积神经网络结构,对于每个实验,只更改激活函数而保持其他所有设置不变.首先,采用Cifar-10数据集,图3为不同激活函数下的训练精度随迭代次数的变化曲线.由图3可见,运行5 000次迭代后,Xwish的结果比LReLU(取系统默认值α=0.2)的训练精度提高了13.2%,比ReLU提高了13.7%,比Tanh提高了28.3%,表明Xwish具有很好的收敛精度.下面用MINST数据集进一步验证,对比实验结果列于表1.由表1可见,Xwish训练5 000代的精度达0.982 5,比其他激活函数训练15 000代的精度高,表明了Xwish函数的高效性.
图表编号 | XD0067040200 严禁用于非法目的 |
---|---|
绘制时间 | 2019.07.26 |
作者 | 刘宇晴、王天昊、徐旭 |
绘制单位 | 吉林大学数学学院、吉林大学数学学院、吉林大学数学学院 |
更多格式 | 高清、无水印(增值服务) |