百度Apollo自动驾驶中的感知、决策与控制算法

594 阅读2分钟

百度的自动驾驶系统(Apollo)融合了多类核心算法,涵盖感知、决策、规划与控制全流程。以下是关键技术及对应算法的简明解析:


1. 环境感知(看懂世界)

算法

  • 深度学习视觉模型
    • CNN(卷积神经网络):处理摄像头数据,识别车辆、行人(如YOLOv6改进版)
    • BEV(鸟瞰图)Transformer:多摄像头数据融合,生成3D环境地图
  • 激光雷达点云处理
    • PointPillars:将点云转为网格特征,提升检测速度(实时性达50FPS)
  • 多传感器融合
    • 卡尔曼滤波+深度学习:结合雷达、摄像头、超声波数据

应用示例

识别100米外突然横穿马路的行人,准确率>99.9%(北京亦庄实测数据)


2. 决策规划(思考策略)

算法

  • 行为决策
    • MDP/POMDP:处理不确定性(如预测行人是否闯红灯)
    • 模仿学习:从人类司机数据学习博弈策略(如变道时机)
  • 路径规划
    • A+优化算法*:全局路径生成(考虑红绿灯、限速等)
    • Frenet坐标系:局部轨迹优化(平滑避障)

应用示例

无保护左转场景(对向车流复杂),决策响应时间<100ms


3. 运动控制(执行动作)

算法

  • 模型预测控制(MPC)
    • 动态调整方向盘转角、油门/刹车(控制误差<5cm)
  • PID+强化学习
    • 适应不同路况(如冰雪路面扭矩控制)

应用示例

在30%坡道上精准泊车(控制精度达厘米级)


4. 特色技术

  • 车路协同(V2X)
    • 多智能体强化学习:路口车辆群体调度(北京亦庄路口通过效率提升40%)
  • 高精地图匹配
    • SLAM+语义分割:定位误差<10cm

算法性能指标(Apollo 6.0)

模块算法关键指标
目标检测BEVFormer召回率98.5%(雨天)
决策规划POMDP+模仿学习复杂场景干预率<1次/千公里
控制MPC横向误差<0.1m(60km/h)

与特斯拉对比

技术路线百度Apollo特斯拉FSD
感知激光雷达+视觉融合纯视觉
决策规则+强化学习纯端到端神经网络
优势极端天气更稳定数据规模更大

百度Apollo的特点是多传感器冗余+混合决策架构,适合中国复杂路况。其算法已在北京、上海等30+城市落地运营(如萝卜快跑无人出租车)。