《表3 不同损失函数下表情识别准确率对比》
除了对基础模型及网络结构进行改进外,有些研究者还对损失函数进行了研究与改进。Sun等[57]将contrastive loss损失函数用于表情识别。Schroff等[58]提出triplet loss损失函数,因其可以训练差异性较小样本的优势从而可以更好地训练表情识别网络,但其计算量较大,会导致网络性能下降。Wen等[59]提出了一种center loss损失函数,其目的是关注类内分布均匀性,让其绕类内中心均匀分布,以实现类内差异最小化。Cai等[60]在传统softmax损失函数的基础上,提出了island loss损失函数,可以在减少类内变化的同时,扩大类间差异,从而进一步增强深度特征的辨别力。Wang等[61]提出了一种AM-softmax损失函数,以softmax loss损失函数作为基础,引入角度间距,加入余弦余量项,使学习到的特征在特征空间中的决策边缘最大化,从而在获得更大类间距的同时极大地减少类内距离。吴慧华等[62]对AM-softmax损失函数与island loss损失函数进行结合,提出了一种基于余弦距离的损失函数cosine distance loss,用于对CNN学习强区分度表情特征进行监督,取得了较高的识别准确率。Qiang等[63]提出了一种全新的损失函数Knot magnify(KM)loss,通过自适应的方式对训练过程中的每个样本添加一个权重,从而提升强样本在DCNNs中训练的效果。表3对比了不同损失函数下表情识别的准确率。
图表编号 | XD00138092200 严禁用于非法目的 |
---|---|
绘制时间 | 2020.01.01 |
作者 | 叶继华、祝锦泰、江爱文、李汉曦、左家莉 |
绘制单位 | 江西师范大学计算机信息工程学院、江西师范大学计算机信息工程学院、江西师范大学计算机信息工程学院、江西师范大学计算机信息工程学院、江西师范大学计算机信息工程学院 |
更多格式 | 高清、无水印(增值服务) |