《表1 4个经典神经网络模型的相关信息》
(1)虽然更深的网络结构能提高分类的准确率,但是这些规模较大的模型正变得难以处理.表1展示了近几年在ImageNet挑战赛中获取冠军的4个经典神经网络模型的相关信息.根据表1可以看出,从2012年到2015年,Top-5的错误率从15.3%降低到了3.57%,神经网络模型的层数也从8层增加到了152层.在2012年到2014年期间,随着神经网络模型层数的增加,模型参数和计算量也极速增加,模型大小从240MB增加到了500MB,计算量从7.2亿操作提升到了196亿,而模型规模的增大和计算量的大幅度提升意味着对硬件计算能力、内存带宽及数据存储的要求也更加苛刻.为了减小模型规模及让网络模型对硬件更加友好等,学者转向设计更加高效的深度神经网络,如2014年的GoogleNet利用提出的Inception模块等在有效提高神经网络模型层数的同时降低了模型规模的大小,最终模型规模仅为AlexNet的十分之一;2015年的ResNet利用“shortcut connection”来跳过某些层,让更多的层能共享权值,使得该模型在网络模型深度上是VGG-19模型的8倍,但在规模上仅为VGG-19模型的一半左右.
图表编号 | XD00107159700 严禁用于非法目的 |
---|---|
绘制时间 | 2019.11.01 |
作者 | 吴艳霞、梁楷、刘颖、崔慧敏 |
绘制单位 | 哈尔滨工程大学计算机科学与技术学院、哈尔滨工程大学计算机科学与技术学院、中国科学院计算技术研究所计算机体系结构国家重点实验、中国科学院计算技术研究所计算机体系结构国家重点实验、中国科学院计算技术研究所计算机体系结构国家重点实验 |
更多格式 | 高清、无水印(增值服务) |