《表4 不同SLAM系统位姿估计均方根误差的对比》
最后,为了定量地对比本文提出的算法与4个流行的SLAM系统估计轨迹的精度,计算真实轨迹与用不同方法估计的轨迹之间的绝对平移的RMSE,并在表4中示出.“—”表示作者的文献中没有提供数据,“x”表示双目相机的数据集无法在基于深度相机的SLAM系统中运行.对于TUM RGB-D数据集,本文将提出的算法与4个流行的基于深度相机的SLAM系统进行对比.对于所有测试序列,本文提出的算法估计位姿的精度高于RGB-D SLAM[6]、ElasticFusion[21]和RGBDTAM[22]系统对相机位姿估计的精度.对于KITTI数据集,本文将提出的算法与ORB-SLAM2[5]进行对比,对于序列05和07,本文的算法比ORB-SLAM2估计的相机位姿精度高.对于序列08,本文的算法获得与ORB-SLAM2相同的结果.表4的最后一行表示10组数据精度提高的算术平均百分比,可以看出,本文的算法比ORB-SLAM2、RGB-D SLAM、ElasticFusion和RGBDTAM分别提高了12.16%、60.82%、42.32%和32.28%.总体来看,提出的LO*算法估计相机位姿的精度在不同数据集中和不同的SLAM系统对比均有不同程度的提高.
图表编号 | XD00155912900 严禁用于非法目的 |
---|---|
绘制时间 | 2020.10.15 |
作者 | 徐岩、安卫凤 |
绘制单位 | 天津大学电气自动化与信息工程学院、天津大学电气自动化与信息工程学院 |
更多格式 | 高清、无水印(增值服务) |