《表5 JHMDB数据集上AWCN与其他模型算法比较》
unit:%
从表5中可以看出,本文AWCN在JHMDB数据集上同样有着良好表现。P-CNN、TS R-CNN、MR-TS R-CNN都是从关节附近提取RGB和光流特征,所以错误的关节坐标会对识别造成很大的影响,同时光流图像的计算会耗费大量的时间。FAT通过骨骼坐标将图像分为4个尺度,利用固定的权重融合RGB和光流特征,不能有效地利用两种特征的互补性,所以精度比AWCN低。GoogLeNet+iTF通过提取视频的光流图像进行行为识别,仅使用单个模态数据,识别精度较低,同时光流图像的获取耗费了大量的时间。MMTSN在使用RGB和Pose特征融合时,提取关键时序特征的能力不强。同时,通过固定的权重融合两种特征,未能有效地利用特征间的互补性。
图表编号 | XD00188334200 严禁用于非法目的 |
---|---|
绘制时间 | 2020.10.25 |
作者 | 郭伏正、孔军、蒋敏 |
绘制单位 | 江南大学模式识别与计算智能国际联合实验室、江南大学模式识别与计算智能国际联合实验室、江南大学模式识别与计算智能国际联合实验室 |
更多格式 | 高清、无水印(增值服务) |