《表2 网络ψ与原网络Φ的参数量》

《表2 网络ψ与原网络Φ的参数量》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于参数共享的卷积神经网络压缩》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

此外,若想改善toeplitz矩阵规划全连接层权重参数后得到的网络ψ的性能,则可增大原网络Φ的结构,增加可学习参数数量来实现。加大网络Φ的结构,增大全连接层神经元的个数,得到一个大网络Ω,对该大网络全连接层的权重参数进行toeplitz矩阵规划后得到网络ψ,使得网络ψ的性能逐渐接近原网络Φ的性能。表2为不同的网络ψ和原网络Φ可学习的参数量。图9为增加全连接层神经元的个数后,网络ψ与原网络Φ的误差曲线和准确率曲线。结合图9和表2可看出,增大toeplitz矩阵规划后网络的全连接层,使可学习的参数量增加,随着网络ψ参数量的增加,ψ与原网络Φ相比较,分类准确率相差逐渐减小,但是网络ψ的参数量仍然远远小于原网络Φ。