《表3 本文方法在天津大学立体图像库上的性能》

《表3 本文方法在天津大学立体图像库上的性能》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于双目融合网络的立体图像质量评价》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

表2中给出所提出网络模型与其他13种先进立体图像质量评价方法的性能比较.这些方法中,文献[5-6,10-11]首先分别对左右视点进行处理,然后根据双目融合特性对得到的特征或分数进行融合.文献[13,15-22]首先对左右两个视点进行融合,然后对融合图像进行处理得到立体图像质量分数.上述两类方法均从不同角度模拟了视觉通路中左右视觉信息的一部分融合和处理过程.其中文献[5-6,19-20,22]采用传统的特征提取的方法,文献[15-17]采取了稀疏表示的方法,文献[10-11,13,18,21]同本文方法一样,采用了深度学习方法.从表2中可以清楚地看到,所提出方法在LIVE 3D PhaseⅠ上所有指标的效果均好于其他方法,在LIVE 3D PhaseⅡ,SROCC和RMSE均优于其他方法,只有PLCC的效果稍逊于Karimi等[16],但处于同一个数量级上.并且,所提出方法在LIVE 3D PhaseⅠ上的PLCC和SROCC均超过了0.96,在LIVE 3D PhaseⅡ上PLCC和SROCC均超过0.95.表3显示了所提出方法在TJU立体图像库上的评价效果,其PLCC和SROCC均超过了0.95.