《表3 不同方法在Oulu数据集上的识别准确率》

《表3 不同方法在Oulu数据集上的识别准确率》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《关键点深度特征驱动人脸表情识别》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
注:加粗字体为最优值。

Oulu数据集由于图像分辨率以及表情强度等问题识别难度相对于CK+数据集较大。为弥补数据对实验结果的影响,采用了水平翻转、随机裁剪、锐化和旋转等数据增强方式。Oulu数据集识别准确率如表3所示,将其与一些经典的深度方法进行比较。深度时间外观和几何网络(deep temporal appearance and geometry network,DTAGN)是一个双流网络,一层卷积神经网络用于提取图像的纹理信息,一层网络用于关注由关键点组成的几何特征变化(Jung等,2015)。由于该方法是识别动态表情,采样的图像包含中性表情和强度较小表情的图像,所以识别准确率较低。VGG finetune是采用经典的VGG(visual geometry group)网络作为基本网络结构(Ding等,2017),但是由于VGG网络较深,参数较多,容易导致过度拟合,所以先用其他任务的较大数据集对其进行预训练,再在表情数据上微调。峰值指导的深度网络(peak piloted deep network,PP-DN)旨在识别强度较小的表情,利用表情强度较大的样本去指导强度较小的样本正确分类(Zhao等,2016)。FaceNet2ExpNet利用人脸识别的数据集先预训练网络,使其保留人脸基本特征,再用表情标签去监督网络学习表情相关特征(Ding等,2017)。由于人脸的身份信息也大部分体现在五官,所以该方法取得了较好的结果。和CK+数据集类似,为证明所提多任务网络和位置注意力图的有效性,在相同数据和实验参数设置下,进行了仅包含表情识别任务、引入关键点检测的多任务、引入位置注意力模型以及中间监督层的实验对比。表3实验结果表明加入关键点检测任务和生成的位置注意力图增大相关特征的权重,有利于提升表情识别的准确率。