《表4 不同SLAM系统位姿估计均方根误差的对比》

《表4 不同SLAM系统位姿估计均方根误差的对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于改进随机抽样一致算法的视觉SLAM》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

最后,为了定量地对比本文提出的算法与4个流行的SLAM系统估计轨迹的精度,计算真实轨迹与用不同方法估计的轨迹之间的绝对平移的RMSE,并在表4中示出.“—”表示作者的文献中没有提供数据,“x”表示双目相机的数据集无法在基于深度相机的SLAM系统中运行.对于TUM RGB-D数据集,本文将提出的算法与4个流行的基于深度相机的SLAM系统进行对比.对于所有测试序列,本文提出的算法估计位姿的精度高于RGB-D SLAM[6]、ElasticFusion[21]和RGBDTAM[22]系统对相机位姿估计的精度.对于KITTI数据集,本文将提出的算法与ORB-SLAM2[5]进行对比,对于序列05和07,本文的算法比ORB-SLAM2估计的相机位姿精度高.对于序列08,本文的算法获得与ORB-SLAM2相同的结果.表4的最后一行表示10组数据精度提高的算术平均百分比,可以看出,本文的算法比ORB-SLAM2、RGB-D SLAM、ElasticFusion和RGBDTAM分别提高了12.16%、60.82%、42.32%和32.28%.总体来看,提出的LO*算法估计相机位姿的精度在不同数据集中和不同的SLAM系统对比均有不同程度的提高.