《表3 模型压缩与分割实验结果》

《表3 模型压缩与分割实验结果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《深度学习模型终端环境自适应方法研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

(2)实验细节及结果.我们采用了树莓派4作为终端设备,戴尔Inspiron 13-7368作为边缘设备,对本文提出的X-ADMM和最新扩展的ADMM方法——RAP-ADMM[53]方法进行了性能对比.神经网络模型则分别选择Alex Net,Google Net,Res Net-18,VGG-16,Mobile Net,Shuffle Net等图像处理领域常用的CNN网络进行实验.模型压缩实验过程中利用CIFAR-10数据集进行模型的训练过程,CIFAR-10是普适的彩色图片小型数据集,数据集中包含10个类别,分别是:飞机、汽车、鸟类、猫、鹿、狗等.每个类中包括多达5000张训练图片和1000张测试图片.模型中的网络结构代码基于Pytorch实现,实验过程中网络实现及模型参数设置如下:模型压缩阶段,训练过程的batch大小设为64,momentum设置为0.9,权重衰减指数为0.0005.利用均值为0,方差为0.01的高斯分布进行权重初始化,优化器选择Adam优化器,在每个卷积层和之后激活之前进行批归一化,初始学习率设置为0.1,并以10倍的速率进行衰减.结果表明,相比较于RAP-ADMM,X-ADMM在6种模型上都取得了较好效果,具体结果见表3.