《表2 在Wiki和LabelMe上的MAP值比较》

《表2 在Wiki和LabelMe上的MAP值比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《语义耦合相关的判别式跨模态哈希学习算法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

从表2和表3的总体上来看,本文提出的方法在所有码长上都比其它方法取得的效果好,这也很好的说明了本文提出的方法在跨模态检索中的有效性.与位居第二的基于线性分类器的DCH方法相比,在图片搜文本的任务中,本文方法的最好结果在Wiki,LabelMe和NUS_WIDE数据集上分别比其大约高出了4%,7%和10%;而在文本搜图片的任务中,则分别大约高出了9%,4%和8%.这证明了本文对不同模态数据采用交叉耦合哈希表示的有效性,比将不同模态数据嵌入到共同的子空间学习统一哈希码的方法具有更好的效果.与没有基于线性分类器的方法CMFH[15]、LSSH[16]、SMFCH_Liu[19]、SMFH_Tang[20]和JCH[17]方法相比较,基于线性分类器的DCH[21]和本文的方法均获得了更优的性能,这证明了基于线性分类器所学习到的哈希码具有更强的语义判别能力.另外,从表中也可看出,本文提出的方法的MAP值随着哈希码位数的增加而增加,这表明本文提出的方法能够利用比较长的哈希码来编码更多的判别信息,从而提高检索性能.并且通过比较发现,在所有方法中,文本作为查询来检索图片时的性能比图片作为查询来检索文本的效果更好,这表明图片很难检索出语义相似性的文本,因为文本所含的语义信息比图像要多.