《表6 多模态检测方法比较》

《表6 多模态检测方法比较》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《目标检测算法在交通场景中应用综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

多模态目标检测采用不同传感器采集数据信息,融合信息检测识别目标。Wang等[79]提出一种CIMDL(Correlated and Individual Multi-Modal)方法,输出为两个模态信息特征和一个融合特征,在充分融合特征信息的基础上,保留了各自模态的特有信息。Liu等[80]改进Faster R-CNN网络,融合彩色图像和多光谱图像特征信息对行人目标检测识别。Park等[81]认为仅用两个模态融合是不够的,通过概率模型考虑每个模态特征信息,并采用通道加权融合有选择使用信息。Guan等[82]提出一种光照感知加权机制以学习不同光照条件下的多光谱行人特征,将光照信息与多光谱数据综合实现行人检测的多任务学习和语义分割。Zhou等[83]将毫米波雷达与摄像机信息融合,利用时空同步关联多传感器数据,最后改进YOLO v2算法实现深度融合对交通场景目标检测识别。这些研究是基于多种传感器采集场景信息,目前常用的传感器为RGB相机、激光雷达、深度相机、多光谱相机等。除此之外,高精地图、雷达、毫米波雷达也同样被应用在自动驾驶目标检测中。多模态检测方法比较如表6所示[84]。