低速自动驾驶下VSLAM算法

81 阅读2分钟

携手创作,共同成长!这是我参与「掘金日新计划 · 8 月更文挑战」的第2天,点击查看活动详情

SLAM是定位模块的核心技术

  • 高精度地图生成:从采集车数据重建三位高精地图,是一个完整的多传感器SLAM问题;
  • 实时定位:将传感器数据与地图对比,是一个地图匹配和传感器融合问题;

基于视觉的定位建图算法(VSLAM)

涉及到点云建图算法,而由于仅聚焦于视觉因素,故不用考虑多传感器融合等难点。

定位建图算法

低速自动驾驶系统

低速车辆具有安全可控性、无人化、成本可控的优势。

低速车辆与机器人在技术上具备一定相通性

技术特点

  1. 以园区场景为主,兼顾室内;
  2. 场景丰富,遮挡多,建图挑战性更强;

开发前的自问自答

算法问题点分为输入、模型、输出三类需要确定:

  1. 摄像头数据的维度指的是什么?

    我对摄像头及其数据的了解仅限于摄像头的硬件介绍。由于没看过数据,所以没有直观的认识。在组合搜索自动驾驶、数据集、摄像头、维度等几个关键词后出现的是摄像头的硬件数据。是指对摄像头位置维度的要求吗?还是RGB、深度等数据维度呢?

  2. 简单实现一个模型。。。我的设想是指找一个开源VSLAM算法模型进行运行学习,可以VSLAM的经典框架包括【传感器数据读取、前端、后端、回环检测、建图】五个部分,第一个是输入,最后的是输出,

  3. 需要先确定摄像头的类型才能确定传入图片数据的类型,只有传入确定传入数据的类型才能确定算法模型的细节

  • 单目摄像头拍摄的图像是二维的,没有深度信息;
  • 双目摄像头由两个单目摄像头组成,包含直接计算出物体深度值;
  • RGB-D:普通的 RGB 三通道彩色图像 + Depth Map,RGB-D 相机获取空间点的 3D 信息更加直接,深度信息通过红外结构光或 TOF 原理测得,和激光雷达有些类似,被称为伪激光雷达。