《表4 不同微表情模型方法准确率对比》

《表4 不同微表情模型方法准确率对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《结合空洞卷积的CNN实时微表情识别算法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文通过混淆矩阵(confusion matrix)对微表情分类模型准确性进行评估,从整体分类情况看准确率达73%,从图5的混淆矩阵可以看出模型对人脸高兴表情敏感度最高,准确率为90%,其主要原因是由于产生幸福表情时人脸肌肉动向较为明显,且训练样本较多,属于简单样本学习;与此相对应自然表情的识别准确率仅有69%,虽然训练样本总体占比最高,但是表情与正常刚性人脸相似,肌肉变化率极低,因此准确率较低;同时可以看出恐惧表情分类准确率还不足50%,主要原因是由于样本数量过少,即使使用focal loss控制样本平衡,恐惧表情与惊讶表情的区分度仍然较低,从惊讶表情的错误率也可以看出,模型误判惊讶为恐惧高达8%。本文实验结果如表4所示,综合列出了近三年较为流行的普通特征方法及深度学习方法,与其他前沿方法相比,本文提出的基于空洞卷积的CNN微表情识别方法获得了较高的准确率,one-stage模型作为一种卷积神经网络方法,整合了人脸表情检测与特征自动提取分类,省去了人工寻找特征的步骤,也提高了识别准确率。在模型实时应用方面,表5列出在一段时间内模型分类结果及时长消耗,可以看出基于MTCNN的人脸微表情分类方法,单帧图像识别时间浮动在250~290 ms,视频分析帧率维持在60 fps。