《表2 配准数据对比:基于RealSense的室内3D场景重建方法研究》

《表2 配准数据对比:基于RealSense的室内3D场景重建方法研究》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于RealSense的室内3D场景重建方法研究》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

实验过程中,首先在PC上连接好RealSense与神经计算棒,获取两帧具有一定重合部分的彩色数据与点云数据,通过前文所述方法对获得的数据进行中值滤波处理。采用Matlab中提供的Camera Calibration Toolbox计算得到相机参数。利用ORB算法对两帧彩色点云数据进行特征匹配。使用相机标定过程中得到的相机参数,实现特征点坐标在相机坐标系下到世界坐标系下的转换,并将其映射到对应的点云数据上,执行ICP算法,即可得到相邻两帧点云在世界坐标系下的配准融合。在拍摄过程中,需要获得两帧具有重叠部分的数据,按照前文所述方法获取两帧点云,传统ICP算法与改进ICP算法的迭代次数、运行时间以及配准误差(距离平方和)如表2所示。从表格中的数据可以看出传统的ICP算法需要迭代30次才能达到收敛条件,需要的运行时间较长,误差较大。应用本文所述算法不仅减少了配准过程中的误匹配点对,而且减少了需要运算的数据量,在迭代20次时就可以达到收敛条件,在速度和精度上都有了明显的改善。因此可以看出改进的ICP算法能够快速准确地实现点云数据的配准融合。