《表6 多模态检测方法比较》
多模态目标检测采用不同传感器采集数据信息,融合信息检测识别目标。Wang等[79]提出一种CIMDL(Correlated and Individual Multi-Modal)方法,输出为两个模态信息特征和一个融合特征,在充分融合特征信息的基础上,保留了各自模态的特有信息。Liu等[80]改进Faster R-CNN网络,融合彩色图像和多光谱图像特征信息对行人目标检测识别。Park等[81]认为仅用两个模态融合是不够的,通过概率模型考虑每个模态特征信息,并采用通道加权融合有选择使用信息。Guan等[82]提出一种光照感知加权机制以学习不同光照条件下的多光谱行人特征,将光照信息与多光谱数据综合实现行人检测的多任务学习和语义分割。Zhou等[83]将毫米波雷达与摄像机信息融合,利用时空同步关联多传感器数据,最后改进YOLO v2算法实现深度融合对交通场景目标检测识别。这些研究是基于多种传感器采集场景信息,目前常用的传感器为RGB相机、激光雷达、深度相机、多光谱相机等。除此之外,高精地图、雷达、毫米波雷达也同样被应用在自动驾驶目标检测中。多模态检测方法比较如表6所示[84]。
图表编号 | XD00201597600 严禁用于非法目的 |
---|---|
绘制时间 | 2021.03.15 |
作者 | 肖雨晴、杨慧敏 |
绘制单位 | 东北林业大学工程技术学院、东北林业大学工程技术学院 |
更多格式 | 高清、无水印(增值服务) |