《表1 不同卷积神经网络模型的对比》

《表1 不同卷积神经网络模型的对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于滤波器注意力机制与特征缩放系数的动态网络剪枝》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

自Alexnet[1]夺得ISVRC2012冠军以来,深度神经网络在计算机视觉上取得了巨大的发展,尤其在图像分类、目标检测、面部识别、语义分割等多个领域取得了一系列的进展.如AlexNet[1]、VGG[2],GoogleNet[3]、Res Net[4]等许多经典卷积神经网络,随着这些神经网络复杂度的提高,一方面,深度神经网络在各种视觉任务上不断逼近精度极限;另一方面,浮点运算率和存储空间也在不断的增加.由于移动设备和嵌入式设备的资源限制,如计算能力,存储容量、电池消耗等,使得网络模型很难部署在这些移动装置上.如表1所示,随着这些经典卷积神经网络层数的增加,神经网络的计算量和存储量都在显著的增加.在深度神经网络中,卷积层占据了绝大多数的计算量,巨大的计算量消耗了大量的CPU以及GPU等硬件资源,由于这些问题的存在,模型压缩得到了快速的发展,在保证网络精度基本不变的情况下,尽可能地压缩网络模型,无论是存储量还是浮点运算率都得到了有效的减少.