《表2 跨场景服装检索top-k精度》

《表2 跨场景服装检索top-k精度》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于多层次特征的跨场景服装检索》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

在上身服装图像上提取特征检索,实验中子网络均采用AlexNet结构,将4 096维的类别特征FCi和匹配特征FMi级联作为服装描述子。图4和表2为基准方法和本文方法在DeepFashion子数据集上的top-k精度对比,可知,在4种基线方法中,单一域网络结构且不考虑高层语义信息的AlexNet效果最差(P@20=0.150)。FashionNet (P@20=0.239)以及DARN (P@20=0.239)的表现比单一Siamese网络(P@20=0.150)要好,这是因为均采用了分支结构并且添加了高层语义信息。FashionNet的效果要优于DARN,这与DeepFashion中的实验结果一致,其分支结构虽未用于域特定特征,但通过多任务训练提高了检索精度。在对比试验中,未采用关键点和服装属性数据,这也导致本文方法(P@20=0.481)要优于FashionNet (P@20=0.431)。可以看出,在使用较少监督信息的情况下,本文方法的性能优于4个基准方法,结果与预期一致。通过结合高层语义信息和多分支网络,本文方法可以学习到更有表述力的服装特征描述子。