《表1 1 不同量化方法在Res Net-18 on Image Net上的压缩效果》

《表1 1 不同量化方法在Res Net-18 on Image Net上的压缩效果》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《深度学习模型压缩与加速综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

深度学习模型性能提高的同时,计算也越来越复杂,计算开销和内存需求逐渐增加.仅8层的Alex Net[4]需要0.61亿个网络参数和7.29亿次浮点型计算,花费约233MB内存.随后的VGG-16[5]的网络参数达到1.38亿,浮点型计算次数为1.56亿,需要约553MB内存.为了克服深层网络的梯度消失问题,He提出了Res Net[6]网络,首次在ILSVRC比赛[3]中实现了低于5%的top-5分类错误,偏浅的Res Net-50网络参数就达到0.25亿,浮点型计算次数高达3.9亿,内存花费约102MB.庞大的网络参数意味着更大的内存存储,而增长的浮点型计算次数意味着训练成本和计算时间的增长,这极大地限制了在资源受限设备,例如智能手机、智能手环等上的部署.如表1所示,深度模型在Samsung Galaxy S6的推理时间远超Titan X桌面级显卡,实时性较差,无法满足实际应用的需要.