《表1 不同深度神经网络压缩与加速方法总结》
参数剪枝主要通过移除神经网络中不重要的参数,减少网络的参数量。低秩分解则通过对卷积核或全连接层进行矩阵分解来降低参数量。需要注意的是,参数剪枝和低秩分解都需要对已有网络的结构进行一定的改动。知识蒸馏不需要对网络进行任何改动,而是通过性能更高的大网络来指导小网络的训练,提升小网络的性能。知识蒸馏并不会对模型进行加速或者压缩,更像是一种改进的训练方式来提升模型性能。模型量化则通过使用更少的位数来表示模型参数和中间输出值,比如使用8 bit来表示浮点数(通常是32 bit或64 bit)。量化并不能减少参数量,但是可以显著减少模型的大小。另外,当与特定的硬件结合(比如高通DSP芯片提供了8 bit运算)时,低比特的模型能获得显著的加速。网络架构搜索NAS则通过自动调优来寻找更好的网络架构,其本质是通过自动化搜索来替代了人工调优过程。对5种方法进行了简要介绍见表1。此外,也可以通过设计精简的结构化卷积核或计算单元,以减少计算和存储开销,这部分代表性的工作有MobileNet[6-7]和ShuffleNet[8]。
图表编号 | XD00150743200 严禁用于非法目的 |
---|---|
绘制时间 | 2020.04.20 |
作者 | 闵锐 |
绘制单位 | 中国电信股份有限公司智能网络与终端研究院 |
更多格式 | 高清、无水印(增值服务) |