《表1 Mask R-CNN与数据层融合模型m AP比较》

《表1 Mask R-CNN与数据层融合模型m AP比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于双金字塔特征融合网络的RGB-D多类实例分割》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

图2为数据层融合模型在NYUD2数据集上的测试结果.由图2可见,不管是原始深度图还是编码后的深度图,融合Depth信息之后,分割结果的丰富度都得到了提高.在颜色纹理相近但深度存在差异的地方,如场景2中的盥洗台与浴缸,单纯利用RGB信息不足以识别盥洗台的存在,融合Depth信息之后可以检测到其位置.又如场景1中位置分散的玩具,只学习RGB信息的模型无法检测其存在,融合Depth信息之后可以将前景(玩具)与背景(地板)区别开.同时,编码后的深度图相比原始深度图得到的分割结果更丰富,且HHA编码比表面法线编码的位置信息更准确.但是,这种融合方式准确度较差,引入Depth信息后对原本彩色特征的学习带来了干扰,导致很多分类错误的目标,所以最终的mAP反而小于只学习RGB特征的模型,编码后的检测结果更多,识别错误的结果也更多,其m AP比学习原始深度图的值更小.与定性结果相对应,该模型定量的结果见表1.