《表2 不同模型的训练用时》

《表2 不同模型的训练用时》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于编解码网络的多姿态人脸图像正面化方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文使用的网络参数设置如表1所示.图1中模型的两个子任务的相似部分的参数设置相同,此处仅给出特征解析子任务参数.参数设置对于不同的实验数据可以灵活改变.本文实现了4种不同模型:基本卷积编解码网络,结构如表1所示;3.2小节所提到的双阶段卷积编解码网络,该网络在基本卷积编解码网络基础上又添加一个双输入基本卷积编解码网络;MCEDN和MCEDN(迁移训练),结构如图1所示.模型全部使用Multi-PIE数据集训练,迁移训练在CAS-PEAL-R1数据集上进行.在Multi-PIE数据集中随机抽取150名被试的数据进行训练,其余数据用于测试.训练数据包括19种不同光照和7种不同姿态(-45?~+45?).测试数据包括19种不同光照和6种不同姿态(除了正面姿态).在CAS-PEAL-R1数据集中,随机抽取500名被试的数据作为训练集,包括水平角度上的7种姿态,共3500个图像;其余540名被试的数据作为测试集,包括3780个图像.4种模型训练效率如表2所示.