《表1 4个经典神经网络模型的相关信息》

《表1 4个经典神经网络模型的相关信息》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《深度学习FPGA加速器的进展与趋势》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

(1)虽然更深的网络结构能提高分类的准确率,但是这些规模较大的模型正变得难以处理.表1展示了近几年在ImageNet挑战赛中获取冠军的4个经典神经网络模型的相关信息.根据表1可以看出,从2012年到2015年,Top-5的错误率从15.3%降低到了3.57%,神经网络模型的层数也从8层增加到了152层.在2012年到2014年期间,随着神经网络模型层数的增加,模型参数和计算量也极速增加,模型大小从240MB增加到了500MB,计算量从7.2亿操作提升到了196亿,而模型规模的增大和计算量的大幅度提升意味着对硬件计算能力、内存带宽及数据存储的要求也更加苛刻.为了减小模型规模及让网络模型对硬件更加友好等,学者转向设计更加高效的深度神经网络,如2014年的GoogleNet利用提出的Inception模块等在有效提高神经网络模型层数的同时降低了模型规模的大小,最终模型规模仅为AlexNet的十分之一;2015年的ResNet利用“shortcut connection”来跳过某些层,让更多的层能共享权值,使得该模型在网络模型深度上是VGG-19模型的8倍,但在规模上仅为VGG-19模型的一半左右.