《表2 手工标注特征的方法与本文提出方法的比较》

《表2 手工标注特征的方法与本文提出方法的比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于移动端的场景分类模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

虽然场景识别研究方法[3-5,21,22]很多,但端到端的方法并不多,而且有些方法[3,21,22]使用的是多模型集成的方法,因此我们的方法在与其它方法对比时,会与对比网络在同一标准下进行对比。表2是与早期手工提取特征进行对比。表3是与各端到端的卷积网络进行对比,同时利用FLOPs计算公式[10]分别计算了各网络在输入图片长宽都为224时的FLOPs。表4是与多模型集成进行对比,我们使用多模型集成时,通过训练时调节相似类个数K,获得不同模型。从以上的对比表中可以看出以下几点:(1)即使是使用轻量卷积网络,其准确率要远高于传统手工标注场景识别特征的方法;(2)多模型集成是提高分类准确率非常简单却有效的方法,我们模型通过集成之后,与各个大型集成模型准确率相差很小;(3)使用与目标问题相似的预训练模型进行fine-tune,准确率可以获得大幅提高。例如表3中文献[4,20]方法都是在Place205或Place365数据集上预训练好的网络(VGGNet-16、GoogLeNet)再分别在数据集MIT Indoor67和SUN397上进行fine-tune,相对于使用在ImageNet上预训练的VGGNet-16再在MIT Indoor67和SUN397进行fine-tune,前者[20]准确率要比后者[5]高很多。本文使用的是在ImageNet上预训练的网络,但相比于文献[5]方法,不仅FLOPs只有它的1%,而且分类准确率比其高8.2%,显示了本文方法的有效性。