《表1 1 不同量化方法在Res Net-18 on Image Net上的压缩效果》
深度学习模型性能提高的同时,计算也越来越复杂,计算开销和内存需求逐渐增加.仅8层的Alex Net[4]需要0.61亿个网络参数和7.29亿次浮点型计算,花费约233MB内存.随后的VGG-16[5]的网络参数达到1.38亿,浮点型计算次数为1.56亿,需要约553MB内存.为了克服深层网络的梯度消失问题,He提出了Res Net[6]网络,首次在ILSVRC比赛[3]中实现了低于5%的top-5分类错误,偏浅的Res Net-50网络参数就达到0.25亿,浮点型计算次数高达3.9亿,内存花费约102MB.庞大的网络参数意味着更大的内存存储,而增长的浮点型计算次数意味着训练成本和计算时间的增长,这极大地限制了在资源受限设备,例如智能手机、智能手环等上的部署.如表1所示,深度模型在Samsung Galaxy S6的推理时间远超Titan X桌面级显卡,实时性较差,无法满足实际应用的需要.
图表编号 | XD00205364100 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.01 |
作者 | 高晗、田育龙、许封元、仲盛 |
绘制单位 | 计算机软件新技术国家重点实验室(南京大学)、计算机软件新技术国家重点实验室(南京大学)、计算机软件新技术国家重点实验室(南京大学)、计算机软件新技术国家重点实验室(南京大学) |
更多格式 | 高清、无水印(增值服务) |