《表4 基于视觉感知的自动驾驶数据集及相关描述》

《表4 基于视觉感知的自动驾驶数据集及相关描述》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《视觉感知的端到端自动驾驶运动规划综述》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

端到端模型的训练需要大量自主车辆行驶环境的数据。虽然设计和收集新数据以评估自动驾驶车辆的算法是费时的,但有许多数据集可供研究使用。比较受欢迎的数据集包括comma.ai (Santana和Hotz,2016),BDD100K(The Berkeley Deep Drive dataset)(Yu等,2020)和A2D2 (Audi Autonomous Driving dataset)(Geyer等,2020)。comma.ai数据集包含7.25 h的视频,同时记录了汽车的速度、加速度和转向角等测量值。在多样性方面,BDD100K是一个大规模的驾驶视频数据集,而数据多样性对测试感知算法的鲁棒性尤为重要。A2D2是适用于多种感知任务的商业级驾驶数据集,它弥补了公共数据集缺乏大量的汽车状态信息的空白。其他有用的数据集包括nu Scenes (Caesar等,2020)、Cityscapes(Cordts等,2016)和Apollo Scape (Huang等,2020)等。本文提及的数据集及最近发布的数据集完整描述如表4所示。