《表4 基于视觉感知的自动驾驶数据集及相关描述》
端到端模型的训练需要大量自主车辆行驶环境的数据。虽然设计和收集新数据以评估自动驾驶车辆的算法是费时的,但有许多数据集可供研究使用。比较受欢迎的数据集包括comma.ai (Santana和Hotz,2016),BDD100K(The Berkeley Deep Drive dataset)(Yu等,2020)和A2D2 (Audi Autonomous Driving dataset)(Geyer等,2020)。comma.ai数据集包含7.25 h的视频,同时记录了汽车的速度、加速度和转向角等测量值。在多样性方面,BDD100K是一个大规模的驾驶视频数据集,而数据多样性对测试感知算法的鲁棒性尤为重要。A2D2是适用于多种感知任务的商业级驾驶数据集,它弥补了公共数据集缺乏大量的汽车状态信息的空白。其他有用的数据集包括nu Scenes (Caesar等,2020)、Cityscapes(Cordts等,2016)和Apollo Scape (Huang等,2020)等。本文提及的数据集及最近发布的数据集完整描述如表4所示。
图表编号 | XD00215915400 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.16 |
作者 | 刘旖菲、胡学敏、陈国文、刘士豪、陈龙 |
绘制单位 | 湖北大学计算机与信息工程学院、湖北大学计算机与信息工程学院、湖北大学计算机与信息工程学院、湖北大学计算机与信息工程学院、中山大学数据科学与计算机学院 |
更多格式 | 高清、无水印(增值服务) |