《表2 两种情绪识别精度对比》

《表2 两种情绪识别精度对比》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于时序卷积网络的情感识别算法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

本文对比了其他采用DEAP数据集的情感识别研究,对比结果如表2所示。文献[20]通过自编码机制,编码阶段将脑电数据与眼电数据分开建模,解码阶段再组合到一起,形成高阶特征表示,使用SVM作为分类器,最终对Valence二分类达到了85.20%的识别精度,对Arousal二分类达到了80.50%的识别精度;文献[21]将使用残差神经网络(Residual Neural Network,ResNet)提取的特征融合线性频率倒谱系数(Linear Frequency Cestrum Coefficient,LFCC)作为最终特征,使用KNN作为分类器,最终对Valence得到90.39%的精度均值,对Arousal得到89.06%的精度均值;文献[22]考虑了每个受试者对实验音乐MV的熟悉度,证明了熟悉度对分类结果的影响比较大,采用分形维度(FD)和功率谱密度(PSD)作为特征,采用决策树对Valence的平均准确率为73.30%,对Arousal的平均准确率为72.50%;文献[23]使用Relief算法对32个通道进行特征选择,利用快速傅里叶变换(FFT)计算功率作为特征,使用概率神经网络(Probabilistic Neural Networks,PNN)作为分类器对Valence最终得到了81.21%的平均准确率,对Arousal得到了81.76%的平均准确率;文献[24]采用皮电、眼电等通道数据并为其单独设计特征并且评估了个人因素对实验的影响,提取PSD特征,使用随机森林算法,最终结果稳定在对Valence的精度均值为80.10%,对Arousal的精度均值为77.20%;文献[25]通过小波变换提取特征,使用RNN作为分类器,最后得到对Valence的平均识别精度为74.12%,对Arousal的平均识别精度为72.06%。其中文献[20,22,25]使用了非深度学习算法,文献[21,23,24]应用了深度学习算法。