-
这是DLAD(ETH自动驾驶深度学习课程)中致力于深入理解多模态驾驶数据的第一个项目组成部分
资源介绍
项目1-多模式驾驶数据
这是DLAD(自动驾驶深度学习)的项目1,其重点是理解多模式驾驶数据。
任务1-BEV
任务1的重点是从Velodyne点云获取BEV(鸟瞰)。 每个方向的BEv分辨率均为0.2。 BEV如下图所示。
任务2-语义分割和Bbox投影
任务2是将Velodyne品脱云投射到图像上。 为了实现这一点,在将维洛迪因点附加一个额外的维数之后,利用外在和内在的投影矩阵来实现本地坐标。 外在投影矩阵用于将Velodyne点云从世界坐标系转换为相机坐标系(cam0)。 然后,进一步利用固有投影矩阵,将点转换为另一个摄像机(cam2)的摄像机参考系。 最终,云的每个点现在对应于一个拥有(u,v,1)的本地矩阵(3x1),其中u和v对应于image2像素。 图像2自然对应于相机2拍摄的图像。对于此任务,场景对象的bbox回归是焦点。 bbox投影在image2上。 但是,bbox坐