《表2 本文方法和对比方法在不同场景属性下的OP值》
可以看出在OTB-2013数据集上本文方法的DP为89.2%,OP为67.1%,在OTB-2015数据集上本文方法ours的DP为89.4%,OP为67.0%,都超过了9个对比方法。在OTB-2015数据集上,同样采用端到端学习,本文方法比SiamFC在DP和OP上分别提升了12.3%和8.8%,证明了基于相关滤波的多特征融合更具鲁棒性。相比同样采用多特征融合的Staple(融合了HOG特征和颜色特征)和SAMF(融合灰度特征、HOG特征和颜色特征),本文方法在DP上分别提升了11.0%和14.3%,在OP上分别提升了8.9%和11.7%,表明了深度学习方法更能有效利用待跟踪目标的语义信息,提升跟踪精度和准确率。在OTB-2015数据集上,本文算法在面临11类困难场景的挑战下,同样表现出了良好的跟踪性能。如表1和表2所示。
图表编号 | XD00149535600 严禁用于非法目的 |
---|---|
绘制时间 | 2020.06.25 |
作者 | 杨亚光、尚振宏 |
绘制单位 | 昆明理工大学信息工程与自动化学院、昆明理工大学信息工程与自动化学院 |
更多格式 | 高清、无水印(增值服务) |