《表2 仅学习RGB图像模型与双金字塔特征融合网络的AP比较》

《表2 仅学习RGB图像模型与双金字塔特征融合网络的AP比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于双金字塔特征融合网络的RGB-D多类实例分割》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了评估实验的准确性,需要定量的实验结果.选择平均精度(average precision,AP)对分割结果进行定量的判定,参考COCO数据集的评判指标,分别计算AP、AP50、AP75,以及场景中不同大小物体对应的检测指标APs、APm、APl.本文模型定量的实验结果如表2所示,表中给出了本文模型与当前最先进的几种RGB图像实例分割方法在NYUD2数据集上的对比结果.可以看出,本文模型相较于MNC[31]、FCIS[15]、Mask R-CNN,所获得的AP值最高,比Mask R-CNN AP值提升了7.4%,比AP75提升了8.3%.且融合Depth特征后对中等大小的物体影响最大,APm提升了15.4%.定性与定量的实验结果表明,相比于仅学习RGB特征的最新实例分割模型及数据层融合的模型,本文所提出的双金字塔特征融合网络能够获得较高的平均精度(由图5可视化RGB-D实例分割结果可以直观看出),表明本文模型可以有效学习到RGB特征与Depth特征之间的互补信息.一方面,实验模型充分利用了Depth信息,补偿了彩色信息在颜色相近区域无法正确区分的问题;另一方面,实验结果表明本文模型在NYUD2这样数量较少的样本上仍可以获得准确的实例分割结果.