《表1 视觉里程计输出RPE对比》

《表1 视觉里程计输出RPE对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于动态物体特征点去除的视觉里程计算法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

算法精度验证标准为相对位姿误差(relative pose error,RPE)[10],相对位姿误差估计的是一定时间内的局部位姿测量误差,因此其适用于视觉里程计系统的误差评估。为了更好地评估所提算法提升精度的有效性,实验分别对比了ORB-SLAM2算法、文献[7]所提算法和文献[12]所提BaMVO算法的定位精度实验结果。其中ORB-SLAM2算法没有考虑动静态点的区分,文献[7]所提算法利用图像块及图像块方差差异剔除了动态点,文献[12]所提BaMVO算法通过对比匹配特征点之间深度值差异情况来去除动态点影响。由表1可以得出,在低动态场景和高动态场景中,本文所提算法相较于ORB-SLAM2算法都有所提升,尤其是在高动态场景中,整体算法精度提升较大,所有数据集定位精度平均提升38%,证明算法有效。fr3_walking_static数据子集中定位精度更是提高了87.9%,而fr3_walking_rpy数据集中整体运动模糊较多,相机位移较大,对本文算法是较大的挑战,所以相较于其他高动态场景精度提升最小。低动态场景的精度提升较小,主要原因是腐蚀膨胀图像处理时,为了兼顾所有数据集都能平稳运行,设置了固定腐蚀膨胀阈值,导致对轻微的移动现象检测较弱,此处设置自适应阈值会取得更佳效果。与文献[7]所提算法对比,在低动态场景,本文所提算法更加有效,原因是其背景块建模算法对低动态变化不敏感,在高动态场景,文献[7]算法在大部分数据子集上效果较好,在fr3_walking_rpy数据子集上,跟踪失败,未获得最终的运行轨迹,主要原因是其在运动模糊中本身提取角点较少,剔除动态角点后剩余角点已无法进行位姿估计,导致跟踪线程失败。而本文方法虽然在定位精度上稍差于文献[7]算法,但是鲁棒性更强,能够适应更多环境。与文献[12]所提BaMVO算法对比,无论是在低动态场景还是高动态场景中,本文算法相对定位精度更高,主要原因是算法对于动态区域感知相对较好,而文献[12]的BaMVO算法动态点剔除算法相对较弱,对于动态区域的感知较弱,大部分动态点没有被剔除掉,动态点会继续干扰定位效果。由表1可以得知,只有fr3_walking_rpy数据子集实验BaMVO算法较优,原因是对于整体运动模糊过多场景,BaMVO算法受运动模糊干扰较小,特征点提取算法准确度较低,后续可以结合稀疏直接法提升本文算法对于场景运动模糊的定位精度。