《表5 JHMDB数据集上AWCN与其他模型算法比较》

《表5 JHMDB数据集上AWCN与其他模型算法比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《自适应融合RGB和骨骼特征的行为识别》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录
unit:%

从表5中可以看出,本文AWCN在JHMDB数据集上同样有着良好表现。P-CNN、TS R-CNN、MR-TS R-CNN都是从关节附近提取RGB和光流特征,所以错误的关节坐标会对识别造成很大的影响,同时光流图像的计算会耗费大量的时间。FAT通过骨骼坐标将图像分为4个尺度,利用固定的权重融合RGB和光流特征,不能有效地利用两种特征的互补性,所以精度比AWCN低。GoogLeNet+iTF通过提取视频的光流图像进行行为识别,仅使用单个模态数据,识别精度较低,同时光流图像的获取耗费了大量的时间。MMTSN在使用RGB和Pose特征融合时,提取关键时序特征的能力不强。同时,通过固定的权重融合两种特征,未能有效地利用特征间的互补性。