BEV感知系列分享是整数智能推出的一个全新分享系列,在这个系列中,我们将介绍BEV感知相关的算法和数据集等内容。BEV感知系列主要分为以下几篇文章:
-
BEV感知,是下一代自动驾驶感知算法风向吗?🔗 -
BEV感知的开源数据集分享 -
更多干货正在更新中…
「本期划重点」
-
nuScenes:解决缺乏多模态数据集的问题
-
Waymo:以分片的TFRecord格式文件提供
-
Cam2BEV:语义分割BEV视角的仿真数据集
-
Argoverse2:同时包含6个城市的高清地图
-
CityScapes 3D:仅使用立体RGB图像进行标记
-
OpenLane:第一个真实世界的3D车道数据集
-
DeepAccident:第一个用于自动驾驶大规模事故数据集
-
Apollo Synthetic, AIODrive:用于自动驾驶的仿真数据集
在City下面,“AS”代表亚洲,“EU”代表欧洲,“NA”代表北美,“Sim”代表模拟数据。在Sensor Data下,Scenes是指数据集的剪辑(对于不同的数据集,Scenes的长度是不同的),Scans指点云数据。在Annotation下,Frames表示3D bbox/ 3D lane注释帧的数量,3D bbox/ 3D lane表示3D bbox/ 3D lane注释实例的数量,3D seg.表示点云的分割注释帧数
「nuScenes」
-
发布方:Motional
-
下载地址:
https://nuscenes.org/nuscenes#download
-
论文地址:
https://arxiv.org/pdf/1903.11027.pdf
-
发布时间:2019年
-
简介:自动驾驶中安全导航的一个关键部分是检测和跟踪车辆周围环境中的人。为了实现这一目标,现代自动驾驶汽车部署了几个传感器和复杂的检测和跟踪算法。这种算法越来越依赖于机器学习,这就促使人们需要基准数据集。虽然有大量的图像数据集用于此目的,但缺乏多模态数据集来展示与建立自动驾驶感知系统相关的全部挑战,nuScenes数据集就是来解决这个问题
-
特征
-
具有完整的传感器套件(1 x Lidar、5 x Radar、 6 x 摄像头、 IMU、GPS)
-
1000个场景,每个场景20秒
-
1,400,000张相机图像
-
390,000次激光雷达扫描
-
两个多元化城市:波士顿和新加坡,分别为左侧行驶和右侧行驶交通
-
140万个3D边界框,分为23个对象类别
nuScenes数据集的例子,有6种不同的摄像头视图、激光雷达和雷达数据,以及人类注释的语义地图
「Waymo」
-
发布方:WAYMO
-
下载地址:
https://waymo.com/open/download/
-
论文地址:
https://arxiv.org/abs/1912.04838
-
发布时间:2019年
-
简介:数据集以分片的TFRecord格式文件提供,其中包含协议缓冲区数据。这些数据中训练集占70%,测试集占15%,验证集占15%。该数据集由103,354个片段组成,每个片段包含20秒的10Hz的物体轨迹和该片段所覆盖区域的地图数据。这些片段被进一步分割成9秒的窗口(1秒的历史数据和8秒的未来数据),有5秒的重叠。数据以两种形式提供。第一种形式是存储为情景协议缓冲区。第二种形式是将Scenario protos转换为tf.Example protos,包含用于建立模型的张量
-
特征
-
包含1200万个高质量、人工注释的3D ground truth框
-
包含1200万个用于激光雷达数据,以及用于相机图像的2D紧密拟合边界框
-
所有ground truth框都包含支持目标跟踪的轨迹标识符,约113k激光雷达物体轨迹和约250k相机图像轨迹
-
研究人员可以使用数据集提供的滚动快门感知投影库,从三维激光雷达方框中提取二维正交相机方框

03
「KITTI Bird’s Eye View Evaluation 2017」
-
发布方:KITTI
-
下载地址:
http://www.cvlibs.net/datasets/kitti/eval_object.php?obj_benchmark=bev
-
官网地址:
http://www.cvlibs.net/datasets/kitti/index.php
-
发布时间:2017年
-
简介:针对鸟瞰数据的数据集,作者为一辆标准旅行车配备了两个高分辨率彩色和灰度摄像机,Velodyne激光扫描仪和GPS定位系统提供准确的地面实况。该数据集在中型城市卡尔斯鲁厄周围的农村地区和高速公路上驾车拍摄,每张图像最多可以看到15辆汽车和30名行人
-
特征
-
包含7481张训练图像和7518张测试图像以及相应的点云
-
共包括80.256个标记对象
-
为了评估,计算了精度-召回曲线
-
发布方:RWTH Aachen University
-
下载地址:
https://gitlab.ika.rwth-aachen.de/cam2bev/cam2bev-data
-
论文地址:
https://ieeexplore.ieee.org/abstract/document/9294462
-
发布时间:2020年
-
简介:该数据集是在模拟环境中创建的仿真数据集,在模拟中,自我车辆配备了四个相同的虚拟广角相机覆盖全360度环绕视角,ground truth数据由虚拟无人机摄像机提供,BEV ground truth图像位于自我载体上方的中心,视野大约为70米 x 44米,输入和ground truth图像都以964px x 604px的分辨率记录
-
特征
-
针对可见区域考虑了9个不同的语义类(道路、人行道、人、汽车、卡车、公共汽车、自行车、障碍、植被)
-
图像以2Hz的频率记录
-
包含33000个用于训练的样本和3700个用于验证的样本
数据集中四个视角的摄像机图像和BEV视角
05
「Argoverse1」
-
发布方:Argo AI
-
下载地址:
https://www.argoverse.org/av1.html
-
论文地址:
https://arxiv.org/abs/1911.02620
-
发布时间:2019年
-
简介:该数据集由匹兹堡和迈阿密的自动驾驶车队收集。包括7个摄像头的360°图像与重叠视野,从远程激光雷达获取的3D点云,进行6-DOF姿态,和3D轨迹标注
-
特征
-
包括超过300000个5秒跟踪场景,用于轨迹预测
-
第一个包含高清地图的自动驾驶数据集
-
包含290公里的地图车道,并包含几何和语义元数据
该数据集包含激光雷达测量序列,360°RGB视频,正面立体(中右),和6自由度定位。所有序列都与包含车道中心线(洋红色)、可驾驶区域(橙色)和地面高度的地图对齐。序列用3D长方体轨迹(绿色)进行注释。右下方显示了一个更宽的地图视图