《表3 不同损失函数下表情识别准确率对比》

《表3 不同损失函数下表情识别准确率对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《人脸表情识别综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

除了对基础模型及网络结构进行改进外,有些研究者还对损失函数进行了研究与改进。Sun等[57]将contrastive loss损失函数用于表情识别。Schroff等[58]提出triplet loss损失函数,因其可以训练差异性较小样本的优势从而可以更好地训练表情识别网络,但其计算量较大,会导致网络性能下降。Wen等[59]提出了一种center loss损失函数,其目的是关注类内分布均匀性,让其绕类内中心均匀分布,以实现类内差异最小化。Cai等[60]在传统softmax损失函数的基础上,提出了island loss损失函数,可以在减少类内变化的同时,扩大类间差异,从而进一步增强深度特征的辨别力。Wang等[61]提出了一种AM-softmax损失函数,以softmax loss损失函数作为基础,引入角度间距,加入余弦余量项,使学习到的特征在特征空间中的决策边缘最大化,从而在获得更大类间距的同时极大地减少类内距离。吴慧华等[62]对AM-softmax损失函数与island loss损失函数进行结合,提出了一种基于余弦距离的损失函数cosine distance loss,用于对CNN学习强区分度表情特征进行监督,取得了较高的识别准确率。Qiang等[63]提出了一种全新的损失函数Knot magnify(KM)loss,通过自适应的方式对训练过程中的每个样本添加一个权重,从而提升强样本在DCNNs中训练的效果。表3对比了不同损失函数下表情识别的准确率。