《表4 基于PDJ评价指标,不同训练模型在Human 3.6M测试图像上的3D人体姿态估计结果》
本节测试了本文方法针对彩色图像的3D人体姿态估计效果。使用本文不同数据集训练得到的回归模型,在Human 3.6M彩色图像数据集测试图像上脚踝和膝盖3D关节点的预测结果对比,如图6所示。可以看出,各回归模型的检测性能相近,说明利用多源图像混合训练的回归模型,虽在训练样本中引入了深度图像,但并不会对彩色图像上的3D人体姿态估计精度造成太大的影响。图6中画圈部分为各回归模型检测精度提升由快到慢转变的区域,其中在归一化阈值0.25处为检测精度变化转折点,意味着在该归一化阈值之后,回归模型的检测精度即将趋于平稳,此时各回归模型已能将测试样本中绝大部分关节点正确定位。因此,为更清楚地看到各关节点在不同模型的检测差别,比较了各关节点在归一化阈值0.25处的准确率,如表4所示。可以看出,使用本文改善残差模块后的网络M-H36M,对彩色图像的预测性能最优,相比文献[13]的预测精度提升了约4%,而基于多源图像混合训练获得的模型,其平均检测精度由高到低,分别为IKM-H36M>IK-H36M>I-H36M,这也说明了使用多源图像进行训练回归模型,训练的数据越多,其检测精度越高,同时这3个模型的平均检测精度均高于文献[13]方法,这也又一次证明了本文改善后的网络结构有助于提高姿态估计准确性。而从M-H36M和IKM-36M平均检测结果比较来看,使用多源图像训练获得的IKM-H36M模型,平均检测性能略低于M-H36M模型,检测准确度下降约0.50%,这是因为在训练样本中,除彩色图像外,还引入了深度图像,即等于引入了干扰项,使得模型的回归性能略有下降。但从下降0.50%的结果上来看,使用多源图像训练的3D回归模型,虽然在关节点检测精度上具有轻微下降,但并不影响测试图像在各关节点的总体回归性能。
图表编号 | XD00115218400 严禁用于非法目的 |
---|---|
绘制时间 | 2019.12.01 |
作者 | 蔡轶珩、王雪艳、胡绍斌、刘嘉琦 |
绘制单位 | 北京工业大学信息学部、北京工业大学信息学部、北京工业大学信息学部、北京工业大学信息学部 |
更多格式 | 高清、无水印(增值服务) |