《表2 运动轨迹误差表:基于深度学习的真实尺度运动恢复结构方法》

《表2 运动轨迹误差表:基于深度学习的真实尺度运动恢复结构方法》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于深度学习的真实尺度运动恢复结构方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

为了恢复场景中物体的真实大小,本文提出融合视觉和IMU数据获取单目相机的尺度因子。使用ORB-SLAM2算法可以获取到相机的轨迹与真实轨迹的对比如图5所示,其中实线表示ORB-SLAM2的获取的运动轨迹,虚线表示运动轨迹的真实值。其中运动轨迹的真实值是由ZED双目立体相机采集获取。从图中清楚地看到,通过ORB-SLAM2获取的运动轨迹与真实值存在一个尺度差异,通过本文提出的单目相机尺度恢复方法,将获取的图像和IMU参数进行融合,获取单目相机的真实运动轨迹。为验证本文单目尺度恢复方法的准确性,将本文方法与VIORB方法进行对比,VIORB算法是在ORB-SLAM2基础上,加入了IMU的观测,恢复出具有尺度信息的三维场景结构。图5(a)表示ORB-SLAM2方法的轨迹与真实轨迹的对比图,图5(b)为VIORB方法的轨迹估计与真实轨迹的对比图,图5(c)为本文使用的恢复尺度的方法。表2是三种方法的运动轨迹误差,可以清晰地看出,ORB-SLAM2方法的相机运动轨迹与真实轨迹缺少一个尺度因子的关系,最大误差为1.863 m,平均误差为1.676 m;加入IMU的VIORB方法的最大误差在0.468m,平均误差为0.259 m。由此可以看出,相比于基于视觉的轨迹估计,视觉?IMU的轨迹估计具有较好精确性;本文基于IMU和ORB-SLAM2的频域恢复单目尺度方法,最大误差为0.244 m,平均误差为0.111 m。由此可见,本文方法估计的单目相机尺度具有更高的准确性。