《表1 一对一映射模型总结》

《表1 一对一映射模型总结》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于条件生成式对抗网络的图像转换综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

一对一映射模型指源域图像对应唯一的转换结果,包含通用转换模型和针对特定任务的转换模型,如表1所示.Isola等[8]提出通用图像转换框架pix2pix,该框架同时兼容图像着色、边缘图像合成真实感图像等多种图像转换任务.Pix2pix基于DCGAN[9],借助UNet[10]结构将编码器的特征直接传递至生成器,该方式绕过编码器的瓶颈层,使低频特征能够完整传递.此外,Isola等[8]还提出判别器patch GAN,该判别器利用感受野对生成图像的局部区域进行判断.相比直接判断整个图像区域的传统做法,patch GAN的局部区域判断提高了判别器的鲁棒性和性能.但是,pix2pix中L1损失会造成高频信息丢失,导致生成图像模糊.PAN[11]利用网络模型模拟人类的感知过程,用感知损失替代L1损失.感知损失借助网络模型提取图像特征,优化深层次抽象特征.传统感知损失以VGG[12]等预训练模型作为特征提取器,这样的特征提取效果依赖预训练模型的数据集,不能泛化其他数据.PAN以判别器作为特征提取器构造对抗感知损失,脱离了预训练模型并能够针对对应的数据集提取感知特征,进一步提高了感知损失的作用,但该感知损失直接计算每层特征之间的距离,生成图像仍存在一定的模糊.IPAN[13]使用感知相似网络[14]构造区分真假图像对的判别器,其中真图像对包含两张真实图像,假图像对包含生成图像和真实图像.不同于PAN,IPAN借助感知相似网络在真实图像和生成图像的特征之间建立感知损失,先对每层特征进行归一化和缩放,再计算真假图像对的特征距离,避免了直接计算特征距离造成的图像模糊.