《表1 不同超分辨算法在合成数据上的性能比较》

《表1 不同超分辨算法在合成数据上的性能比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《融合多尺度特征的光场图像超分辨率方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

在训练过程中使用了HCI2合成数据集中的光场图像,因此使用HCI1中的合成光场图像对各超分辨率方法进行性能测试。实验中基于深度学习的超分辨率算法FALSR和Res LF采用的是作者发布的预先训练好的模型。另外,双三次插值图像超分辨率方法在实验中被当作基准算法。图3展示了各算法对场景Buddha、Mona和Papillon的超分辨率重建结果。实验结果表明,双三次插值重建出的图像整体上比较模糊,这是由于该方法主要利用了图像中的低频信息而忽略了对高频信息的有效利用。而基于光场几何约束的传统方法GBSR能够较为真实地重建出超分辨率图像,整体上表现出了不错的性能,然而该方法重建场景中的边缘部分会出现模糊或过度锐化问题。另外,GBSR算法完成1个场景的光场超分辨率重建大概需要2 h~3 h,十分耗时。基于深度学习的×2单张图像超分辨方法FALSR对于场景中同一物体内部区域的重建效果较好,但由于仅利用单张视图而没有考虑4D光场结构中的隐含线索,因此无法重建复杂的纹理,同时该方法存在较大程度的锐化过度问题。而基于深度学习的光场超分辨方法Res LF通过结合EPI空间中的极线约束可较为真实地重建出图像中的纹理细节,但由于没有用到光场中的全部视角图像从而导致对遮挡边缘部分的重建结果有些失真。本文提出的超分辨率网络通过利用光场中的所有视角图像,能够更为真实地重建出高分辨率图像中的纹理信息,同时全局特征融合模块一定程度上改善了边缘模糊失真和锐化过度的情况,在主观视觉上表现出了更好的重建性能。定量的性能评估结果如表1所示,蓝色字体标注了除本文方法外的评估指标最高的算法,红色字体则标注了本文方法优于蓝色字体所标注方法的场景。由表1看出Res LF重建出的图像保持着较高的结构相似度,GBSR在合成图像重建上整体获得了次佳的分数,而本文方法在PSNR和SSIM上均优于其他方法。