《表1 对比实验结果/%:基于字典学习的卷积神经网络压缩方法》

《表1 对比实验结果/%:基于字典学习的卷积神经网络压缩方法》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于字典学习的卷积神经网络压缩方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了与常见的网络参数裁剪、聚类、编码混合的压缩方法进行对比,本次对比实验,用这种混合的压缩方法对LeNet-C5和DenseNet进行了压缩实验,首先进行网络参数裁剪,采用逐步裁剪的策略(每次裁剪10%的参数),每次裁剪之后再进行重新训练,更新未裁剪的权值来恢复精度,最终LeNet-C5裁剪了80%的参数、DenseNet裁剪了70%的参数。裁剪之后,对权值进行K-means聚类,将每个簇的权值,替换为聚类中心的数值,之后再进行重新训练,更新聚类中心来恢复精度。最后,对其进行哈夫曼编码,实现网络压缩。实验结果见表1。