《表1 3个自发微表情数据集》

《表1 3个自发微表情数据集》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于Apex帧光流和卷积自编码器的微表情识别》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

实验采用了MEGC2019融合数据集进行验证。融合数据集由SMIC[9]、CASME II[14]和SAMM[15]组合而成。3个数据集的详细信息如表1所示,SMIC总共记录了20名受试者,并从16名受试者中发现了164个微表情片段,三种感情类别分别为“积极”“消极”“惊讶”。CASMEII数据集包括来自35个受试者的247个微表情样本并提供了5个情感标注:“高兴”“厌恶”“惊讶”“压抑”“其他”。CASME II也是样本最多和使用最为广泛的自发微表情数据集。SAMM收集了来自不同人群的32名受试者的微表情,包含159个微表情片段,视频的帧率为200 f/s,分辨率为2 040×1 088,标注了7个情感类别:“高兴”“惊讶”“悲伤”“愤怒”“恐惧”“厌恶”“轻蔑”。因3个数据集的情绪类别标注不同,融合数据集统一为3个类别(“积极”“消极”“惊讶”),其中“高兴”类别被重新标注为“积极”,“厌恶”“压抑”“愤怒”“轻蔑”“恐惧”被重新标注为“消极”,“惊讶”类别则保持不变。融合后的数据集包含来自68个对象的442个微表情序列。来自每个数据集的具体数量详见表2,很容易看出融合后的数据集中“惊讶”“积极”“消极”的比例大约为1∶1.3∶3,数据集还存在严重的数据类别不平衡问题。