- 课程回放
- 1、 全局定位概述
- 2、 全局定位在自动驾驶场景中的挑战
- 3、 具有旋转平移不变性的全局定位方法RING++
- 4、利用BEV表征的360度视觉地点重识别
全局定位是自动驾驶中的基础模块之一,是利用传感器观测,解决车辆在地图坐标系下的定位问题;还可以在地图构建时,通过全局定位算法进行地点重识别,实现闭环检测,为全局一致性高精地图的构建添加相应约束。用于全局定位的数据来源有GPS、RTK、摄像头、激光雷达等。
在自动驾驶场景中,由于在线运算资源受限,需要轻量级的计算和存储;且GPS、RTK作为广泛的外源性方案,容易受到卫星、天气、数据链路状况的影响,常常需要其他传感器进行补充。因此,全局定位方法还面临着环境变化和多视角带来的挑战,也对有效性和效率提出了更高的要求。
而在现有的地点重识别方法只考虑当前位置车辆在地图的位置,但重识别结果不包含旋转信息。因此,当车辆从十字路口的不同入口进入时,可能面临着识别失败的情况。针对当地点重识别面临的困境,浙江大学在读博士许学成等研究人员提出一种可估计旋转的激光地点重识别方法DiSCO。该方法能够提高姿态估计,可以端到端地学习,具有可解释性、轻量级的。与DiSCO相关的论文成果发表于IEEE RA-L 2021顶刊上。
目前,一些基于激光雷达的全局定位方法,对于较大的视角差异还不够鲁棒。因此,为了进一步提高大视角差异下的定位,相关团队在DiSCO的基础上又提出了一种具有旋转平移不变性的全局定位方法RING++。该方法可以利用具有稀疏扫描的轻量级地图来解决较大的视点差异,是一种通用的多通道特征的方法。与RING++相关的论文成果发表于IEEE TRO 2023顶刊上。
此外,仅使用激光雷达也会在一些退化场景中出现错误匹配,如何进行多模态融合的全局定位也是一个重要的问题。针对该问题浙江大学在读博士许学成等研究人员提出一种利用BEV表征进行360度视觉地点重识别(VPR)的网络架构。该架构在特征提取、特征聚合和视觉-LiDAR 融合中利用 BEV 表示,将视觉线索和空间感知联系起来,并减少了摄像头之间的机械和时间错位问题。通过数据集验证,该框架与VPR相比,具有较显著地优越性。
12月8日上午10点,「自动驾驶新青年讲座」第30讲邀请到浙江大学在读博士许学成参与。许博士将围绕大视角差异下的激光全局定位、多模态全局定位,主讲《面向自动驾驶场景的全局定位算法与应用》。