《表3 各种分割算法的分割精度对比》

《表3 各种分割算法的分割精度对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《域自适应城市场景语义分割》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注:加粗的字体为每行最优值。

实验2为了进一步验证本文算法的有效性,分别将本文模型与目前几种主流的语义分割算法模型(Hoffman等人(2016)、Zhang等人(2017)、Hoffman等人(2017)、Chen等人(2017)、Luo等人(2019))进行了对比。Hoffman等人(2017)和Chen等人(2017)两种方法均分别比较了基于特征级与像素级的域自适应效果,定量的实验结果如表3所示。另外还将本文的模型得到的分割图与Chen等人(2017)得到的分割结果进行了视觉效果对比,如图4所示。在图4中,用不同的颜色表示场景中19个不同的类别目标。从图4可以发现,本文模型的分割性能更优。将着重对比分析方框圈出的地方,如图4第1行,提出的模型对Sidewalk、Road、Terrain等类别的分割都更加接近其对应的ground truth;如图4第2行,提出的模型对Sidewalk、Road和Building都分割更准确,尤其是左上角的Building类,分割效果更好;同理,图4的第3行、第4行和第5行,提出的模型对Sidewalk、Road、Pole的分割效果仍然比AdaptSegNet更好。这是因为AdaptSegNet在上述类别的分割中受到Terrain类别的干扰较大,本文提出模型分割效果提升的主要原因在于,采用了学习率自适应方法可以动态调整不同特征层的损失函数,另外,本文采用SG-GAN方法合成具有目标域风格的源域数据也是提升分割效果的主要原因。