《表5 与域自适应和弱监督方法的比较》
注:加粗字体表示最优结果。
进一步将本文方法与最新的弱监督和领域适应方法进行了比较,如表5所示。所有方法均使用虚拟的SYNTHIA数据集,除了Weakly-Sup(Saleh等,2017)不使用虚拟图像,Saleh等人(2018)使用GTA5(Grand Theft Auto V)作为背景类,VEIS(virtual environment for instance segmentation)作为前景。Weakly-Sup(Saleh等,2017)依赖于使用真实图像的类别标签,相比之下,本文方法可以处理不包含任何真实图像标注信息的场景,借助不同级别的对齐优化方法来获得更好的分割性能。ROAD-Net(Chen等,2018)通过使用目标导向的蒸馏模块和空间感知的适应模块来解决显著的分布差异,本文方法从特征层面应用不同的对齐方法,实现了8.3%的提升。Saleh等人(2018)将Mask R-CNN产生的前景掩膜与Deep Lab语义分割网络产生的逐像素预测相结合,达到了36.1%的m Io U(mean Io U),比本文方法低1.2%。
图表编号 | XD00215916700 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.16 |
作者 | 张慧、李轩、王飞跃 |
绘制单位 | 中国科学院自动化研究所复杂系统管理与控制国家重点实验室、腾讯科技(北京)有限公司、鹏城实验室、北京理工大学、中国科学院自动化研究所复杂系统管理与控制国家重点实验室 |
更多格式 | 高清、无水印(增值服务) |