Simple 您所在的位置:网站首页 相机ev是啥 Simple

Simple

2023-06-07 17:11| 来源: 网络整理| 查看: 265

作者 | dianyunPCL  编辑 | 点云PCL

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【BEV感知】技术交流群

摘要

多传感器的鸟瞰视图(BEV)感知在自动驾驶中扮演着重要的角色。然而,在实际应用中,选择适合的传感器和特征对于实现准确和鲁棒的BEV感知至关重要。本文提出了一种名为Simple-BEV的方法,旨在探究多传感器BEV感知中真正重要的因素。本文基于一个综合的自动驾驶数据集,通过对不同传感器配置和特征组合的实验进行全面评估。提出了一种评估指标来量化BEV感知的准确性和鲁棒性,并使用该指标进行比较和分析。实验结果表明,传感器的分辨率、覆盖范围以及传感器间的互补性是实现准确和鲁棒BEV感知的关键因素,我们的研究结果为多传感器BEV感知提供了指导,并为未来的自动驾驶系统设计提供了有价值的参考。

主要贡献

本论文有两个主要贡献:首先阐明了BEV感知模型设计和训练协议中的重要因素。特别指出,批量大小和输入分辨率对性能有很大影响,而lifting细节的影响较为适度。其次证明了雷达数据可以通过简单的融合方法大大提高性能。并发布了代码和可复现的模型,以促进未来在该领域的研究。

主要内容

我们的模型从相机、雷达甚至激光雷达获取输入数据,假设传感器之间的数据是同步的,假设传感器的内参和相对姿态已知。该模型具有三维度的度量范围和分辨率。遵循这个任务的基准设置,将左/右和前/后的范围设置为100m × 100m,以分辨率200×200离散化。将上/下的范围设置为10m,并以分辨率8进行离散化。该体积以一个参考相机为中心和方向,通常为前置相机。用X表示左右轴,用Y表示上下轴,用Z表示前后轴。

c9761490f99e1a54f6d2614ffe4f8677.png

我们使用ResNet-101作为主干网络对每个RGB输入图像进行特征提取,其形状为3 × H × W,将最后一层的输出进行上采样,并与第三层的输出进行拼接,然后通过两个卷积层进行实例归一化和ReLU激活 ,得到形状为C × H/8 × W/8的特征图(图像分辨率的八分之一)。我们将预定义的3D坐标体积投影到所有特征图上,并在那里进行双线性采样,从每个相机得到一个3D特征体积。同时,我们还计算每个相机的二值“有效”体积,指示3D坐标是否位于相机视锥内。然后,我们对一组体积进行有效加权平均,将我们的表示缩减为一个形状为C × Z × Y × X的单个3D特征体积。然后,再重新排列轴,使垂直维度成为通道维度,即从C × Z × Y × X → (C · Y) × Z × X,得到一个高维度的BEV特征图。如果提供了雷达数据,我们将其栅格化为另一个具有与基于RGB的地图相同空间尺寸的BEV特征图。我们使用任意数量的雷达通道R(包括R = 0,表示没有雷达)。在nuScenes 中,每个雷达返回包含总共18个字段,其中5个字段是位置和速度,其余字段是内置预处理的结果。我们使用所有这些数据,通过使用位置数据选择网格上最近的XZ位置(如果在边界内),并将15个非位置项用作通道,从而得到一个形状为R×Z×X的BEV特征图,其中R = 15。如果提供了激光雷达数据,我们将其体素化为形状为Y×Z×X的二值占用网格,并将其用于替代雷达特征。然后,我们将RGB特征和雷达/激光雷达特征进行拼接,并通过应用3×3的卷积核将扩展通道压缩到维度C。这样就实现了降维,即 (C · Y + R) × Z × X → C × Z × X。此时,我们得到了一个特征平面,代表了场景的鸟瞰视图。

33a66f5bcf3fe25f039c0d015a9abc98.png

使用三个ResNet-18 块处理这个特征平面,产生三个特征图,然后使用双线性上采样的加法跳跃连接逐渐将粗糙特征恢复到输入分辨率,并最后应用两个卷积层作为分割任务的输出。根据FIERY,我们还使用辅助任务头部来预测中心度和偏移量,以对模型进行正则化。偏移量头部生成一个向量场,在每个对象掩码中,每个向量指向该对象的中心,我们使用交叉熵损失训练分割头部,并使用L1损失监督中心度和偏移量字段,使用基于不确定性的可学习权重 平衡这三个损失。3D分辨率为200×8×200,最终输出分辨率为200×200,我们的3D度量范围为100m × 10m × 100m,这对应于体素长度为0.5m × 1.25m × 0.5m(按Z、Y、X的顺序)。使用128维的特征维度(即通道维度C),ResNet-101在COCO 2017上进行了目标检测的预训练,BEV ResNet-18从头开始训练,使用Adam-W优化器进行端到端训练,学习率为5e-4,并使用1周期调度。我们进行了25000次迭代训练。

自动驾驶车辆需要至少一种对车辆周围的三维空间进行 "鸟瞰图" 表示。挑战在于从安装在车辆上的传感器获取鸟瞰图表示。在本研究中,我们提出了一个简单的基线方法来解决这个感知问题,相比当前的最先进方法,它更准确、更快速,并且需要更少的参数。

最近的研究工作集中在创新的从2D图像平面到鸟瞰图平面的特征提取技术,仅利用摄像机提供最终输出结果的方法。

e69d305a1e3fa6d28dc406025c56b59b.png

在我们提出的基准模型中,采用了一种无需参数的方法:将一个体素的3D坐标投影到图像特征图中,并在该位置进行双线性采样,在模型的其他方面,如2D和BEV卷积神经网络方面,与相关工作相似。

fcf348ed0c37e2ccde8faf55b2eabe1d.png

在建立这个新的简单基准模型的同时,也借此机会质疑仅依赖相机的想法,而不是融合来自其他传感器(例如毫米波雷达)的现成度量信息。我们之前看到的研究报告称,nuScenes中的雷达数据可能过于稀疏,无法提供有用的信息。通过可视化数据如下视频,我们可以看到雷达数据确实比LiDAR更稀疏,但它提供了一些有关度量场景结构的线索,这是仅通过RGB无法获取的。

假设某些度量信息总比没有好,我们采用了一种非常简单的策略将雷达信息与RGB特征体积融合:我们将雷达数据栅格化成与BEV维度匹配的图像,然后将其作为额外的通道简单地连接起来。

6d2bd2532ed508c1ad680d729994f0c0.png

我们的实验结果表明,以这种方式将雷达信息整合进来可以大幅提高准确性。

实验与分析

请参阅论文以获取定量结果和分析,这里仅展示视频

总结

这项工作探索了BEV语义解析的设计和训练选择,并展示了批次大小和图像分辨率在性能中起到了意外的重要作用,这在之前的文献中尚未讨论过。虽然最近的研究开发了越来越复杂的2D到BEV抬升策略,但我们展示了双线性采样也表现良好。在这种情况下,时间积分是一个自然的选择,但我们将其留给未来的工作。充分利用可用的高分辨率图像将需要更全面地探索主干网络,未来的工作领域还包括探索3D物体检测,除了稠密的BEV表示,我们的实验证明,雷达为BEV解析提供了有用的信息,希望这一观点能够应用到其他方法中,我们的工作并不主张使用特定的传感器,而是主张在可用的情况下尽可能使用度量信息,即使它们是稀疏和嘈杂的。

(一)视频课程来了!

自动驾驶之心为大家汇集了毫米波雷达视觉融合、高精地图、BEV感知、多传感器标定、传感器部署、自动驾驶协同感知、语义分割、自动驾驶仿真、L4感知、决策规划、轨迹预测等多个方向学习视频,欢迎大家自取(扫码进入学习)

8738ec44e8689e3f423515434ee0562a.png

(扫码学习最新视频)

视频官网:www.zdjszx.com

(二)国内首个自动驾驶学习社区

近1000人的交流社区,和20+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D目标检测、Occpuancy、多传感器融合、目标跟踪、光流估计、轨迹预测)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

d22d5ba7d58075305e6a50562b5766fe.jpeg

(三)【自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多传感器融合、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向;

956faafe1fb110ad92e75b7025dceb8f.jpeg

添加汽车人助理微信邀请入群

备注:学校/公司+方向+昵称



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有