《表2 不同方法在Mpi Sintel的表现》

《表2 不同方法在Mpi Sintel的表现》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于卷积神经网络的光流估计模型》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表2中各方法的终点误差(End point error,EPE)可知,采用基于特征匹配的LDOF[28]与DeepFlow[29]方法难以应对Mpi Sintel数据集中存在的复杂运动,存在的大范围过度平滑和模糊也降低了整体估计精度。采用主成分分析和稀疏特征的PCA-Layers[30],也由于无法完整保留原始图像的细节和边缘,导致误差较大。同时Flow Net C[17]、SPy Net[18]和Lite Flow Net[26]这3种深度网络由于自身的单一结构导致逼近能力差,难以拟合复杂原始图像与光流图像的输入输出关系,因此在Mpi Sintel数据集上整体误差高。而本文级联的DANet-C在Mpi Sintel数据集Clean部分上的误差降低到了3.830和1.285,明显优于其他的估计算法,且一定程度上优于同样为级联网络Flow Net2[25]的3.959和1.468,说明本文采用的模型针对图像中的复杂运动也能起到比较好的提升效果,也证明了可形变卷积+注意力关联层的组合能够更好地提取相邻帧的空间细节特征,提高网络调整适应和学习相邻帧的相关性的能力,最终提高整体估计精度。由于Mpi Sintel数据集Final部分的图像数据存在较多的模糊现象,而本文方法并没有针对模糊问题做相应优化,因此在该部分的精度表现没有达到最优,误差为5.500和2.978,高于采用了多种后续细化方法的Lite Flow Net[26],但精度上仍优于其他对比方法。表明本文提出的可形变卷积和注意力关联层网络模型在应对模糊问题时,仍然有一定的优化效果。