《表2 手工标注特征的方法与本文提出方法的比较》
虽然场景识别研究方法[3-5,21,22]很多,但端到端的方法并不多,而且有些方法[3,21,22]使用的是多模型集成的方法,因此我们的方法在与其它方法对比时,会与对比网络在同一标准下进行对比。表2是与早期手工提取特征进行对比。表3是与各端到端的卷积网络进行对比,同时利用FLOPs计算公式[10]分别计算了各网络在输入图片长宽都为224时的FLOPs。表4是与多模型集成进行对比,我们使用多模型集成时,通过训练时调节相似类个数K,获得不同模型。从以上的对比表中可以看出以下几点:(1)即使是使用轻量卷积网络,其准确率要远高于传统手工标注场景识别特征的方法;(2)多模型集成是提高分类准确率非常简单却有效的方法,我们模型通过集成之后,与各个大型集成模型准确率相差很小;(3)使用与目标问题相似的预训练模型进行fine-tune,准确率可以获得大幅提高。例如表3中文献[4,20]方法都是在Place205或Place365数据集上预训练好的网络(VGGNet-16、GoogLeNet)再分别在数据集MIT Indoor67和SUN397上进行fine-tune,相对于使用在ImageNet上预训练的VGGNet-16再在MIT Indoor67和SUN397进行fine-tune,前者[20]准确率要比后者[5]高很多。本文使用的是在ImageNet上预训练的网络,但相比于文献[5]方法,不仅FLOPs只有它的1%,而且分类准确率比其高8.2%,显示了本文方法的有效性。
图表编号 | XD00122847600 严禁用于非法目的 |
---|---|
绘制时间 | 2020.01.16 |
作者 | 黄凯凯、余万里、陆黎明 |
绘制单位 | 上海师范大学信息与机电工程学院、上海师范大学信息与机电工程学院、上海师范大学信息与机电工程学院 |
更多格式 | 高清、无水印(增值服务) |