《表1 3个自发微表情数据集》
实验采用了MEGC2019融合数据集进行验证。融合数据集由SMIC[9]、CASME II[14]和SAMM[15]组合而成。3个数据集的详细信息如表1所示,SMIC总共记录了20名受试者,并从16名受试者中发现了164个微表情片段,三种感情类别分别为“积极”“消极”“惊讶”。CASMEII数据集包括来自35个受试者的247个微表情样本并提供了5个情感标注:“高兴”“厌恶”“惊讶”“压抑”“其他”。CASME II也是样本最多和使用最为广泛的自发微表情数据集。SAMM收集了来自不同人群的32名受试者的微表情,包含159个微表情片段,视频的帧率为200 f/s,分辨率为2 040×1 088,标注了7个情感类别:“高兴”“惊讶”“悲伤”“愤怒”“恐惧”“厌恶”“轻蔑”。因3个数据集的情绪类别标注不同,融合数据集统一为3个类别(“积极”“消极”“惊讶”),其中“高兴”类别被重新标注为“积极”,“厌恶”“压抑”“愤怒”“轻蔑”“恐惧”被重新标注为“消极”,“惊讶”类别则保持不变。融合后的数据集包含来自68个对象的442个微表情序列。来自每个数据集的具体数量详见表2,很容易看出融合后的数据集中“惊讶”“积极”“消极”的比例大约为1∶1.3∶3,数据集还存在严重的数据类别不平衡问题。
图表编号 | XD00201541300 严禁用于非法目的 |
---|---|
绘制时间 | 2021.02.15 |
作者 | 温杰彬、杨文忠、马国祥、张志豪、李海磊 |
绘制单位 | 新疆大学信息科学与工程学院、新疆大学信息科学与工程学院、中国电子科学研究院社会安全风险感知与防控大数据应用国家工程实验室、新疆大学软件学院、新疆大学信息科学与工程学院、新疆大学信息科学与工程学院 |
更多格式 | 高清、无水印(增值服务) |