《表1 传统改良法的特征概括》

《表1 传统改良法的特征概括》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《单幅图像刚体目标姿态估计方法综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

1)传统改良法。在深度学习应用之前,特征的提取由SIFT、HOG(histogram of oriented gradients)(Dalal和Triggs,2005)算法实现,由DPM(deformable part-based model)完成对目标的检测,但目标特征均源自纯手工设计和提取。当姿态估计转向深度学习探索后,特征提取、目标检测和匹配计算等任务几乎都由CNN完成。深度学习方法对前文提到的3种经典估计方法进行了改良,如表1所示。Tulsiani和Malik(2015)、Pavlakos等人(2017)对特征点法进行改进,Tulsiani和Malik(2015)将姿态估计问题转化为视点估计问题,然后用CNN进行视点估计,Pavlakos等人(2017)应用CNN预测模型和图像间的语义特征点,然后匹配计算得到姿态值;Wohlhart和Lepetit(2015)对模板法进行改进,通过CNN提取图像特征描述符,构建原始图像与模板图像之间的映射关系。该方法也称特征描述符法,但CNN计算描述符的初衷是为了构建特定视图模板,形成表征空间,建立与真值的对应关系,因此将其方法归类为模板法;对3D坐标法的改进,除了CNN替代随机森林预测像素坐标的方法,在3D目标检测领域取得优异表现的边界盒法,同样完成了图像像素到3D坐标的映射,区别在于前者得到目标3D坐标,后者得到目标边界盒的顶点坐标。