《表2 4种深层卷积神经网络的模型参数及其在ImageNet数据集的分类精度》

《表2 4种深层卷积神经网络的模型参数及其在ImageNet数据集的分类精度》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《联合卷积神经网络与集成学习的遥感影像场景分类》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

当具有标注信息的遥感影像数据不足以训练一个完整的深层卷积神经网络时,为了更好地迁移学习,选取VGG16(Simonyan和Zisserman,2015)、ResNet50(He等,2016)、Inception(Szegedy等,2015)和Xception(Chollet,2017)4种网络模型进行试验,其模型参数及在ImageNet上的分类精度如表2所示(Chollet,2015)。VGG16模型首次采用更小的卷积核和更深的网络,使其在其他图像数据集上同样具有较好的泛化性能,常常作为图像分类和目标检测的基础模型用来提取特征。VGG16模型包含13个卷积层和3个全连接层,将第二个全连接层输出的4096维向量作为图像提取的特征。ResNet50在卷积神经网络模型中引入残差机制,在一定程度上解决了当网络模型加深过程中出现梯度消失以及梯度退化问题。ResNet50仅包含一个用于分类的全连接层,移除该全连接层,将输出2048维向量作为提取到的图像特征。Inception和Xception同样只有一个用于分类的全连接层,分别移除Inception、Xception模型中最后的分类层,将提取图像的2048维向量作为该图像的特征。同时可以将4种特征融合,从而获得新的组合特征,图4为利用4种卷积神经网络模型提取特征以及4种特征融合的过程。