《表1 相关深度神经网络的总结》
1998年,Lecun等人提出了神经网络的基本结构LeNet[12],应用在了手写数字识别上。2012年,Krizhevsky等人提出了8层的AlexNet[4]利用GPU加速,在大规模数据集ImageNet[13]上进行了验证,相对于传统的方法AlexNet有了显著的提升。2014年,Simonyan等人考虑使用较小的卷积核和步长来提升参数量和网络深度,提出了16、19层的VGG模型[14]。与此同时,Szegedy等人从多尺度的角度考虑引入了Inception结构,并提出22层的GoogLeNet[15]。进一步,2015年He等人设计了一种残差模块[16-17],在一定程度上缓解了由深度引起的梯度弥散的问题,使得网络深度得到了大幅度的提高,网络的性能也得到了极大的提升。进一步,2017年Huang等人从特征的重复、充分利用出发采用密集连接,提出了Dense Net[18]。表1总结了以上模型的特点。
图表编号 | XD00120617100 严禁用于非法目的 |
---|---|
绘制时间 | 2020.01.01 |
作者 | 杨萌林、张文生 |
绘制单位 | 中国科学院自动化研究所精密感知与控制研究中心、中国科学院大学人工智能学院、中国科学院自动化研究所精密感知与控制研究中心、中国科学院大学人工智能学院 |
更多格式 | 高清、无水印(增值服务) |