百度的自动驾驶系统(Apollo)融合了多类核心算法,涵盖感知、决策、规划与控制全流程。以下是关键技术及对应算法的简明解析:
1. 环境感知(看懂世界)
算法
- 深度学习视觉模型
- CNN(卷积神经网络):处理摄像头数据,识别车辆、行人(如YOLOv6改进版)
- BEV(鸟瞰图)Transformer:多摄像头数据融合,生成3D环境地图
- 激光雷达点云处理
- PointPillars:将点云转为网格特征,提升检测速度(实时性达50FPS)
- 多传感器融合
- 卡尔曼滤波+深度学习:结合雷达、摄像头、超声波数据
应用示例
识别100米外突然横穿马路的行人,准确率>99.9%(北京亦庄实测数据)
2. 决策规划(思考策略)
算法
- 行为决策
- MDP/POMDP:处理不确定性(如预测行人是否闯红灯)
- 模仿学习:从人类司机数据学习博弈策略(如变道时机)
- 路径规划
- A+优化算法*:全局路径生成(考虑红绿灯、限速等)
- Frenet坐标系:局部轨迹优化(平滑避障)
应用示例
无保护左转场景(对向车流复杂),决策响应时间<100ms
3. 运动控制(执行动作)
算法
- 模型预测控制(MPC)
- 动态调整方向盘转角、油门/刹车(控制误差<5cm)
- PID+强化学习
- 适应不同路况(如冰雪路面扭矩控制)
应用示例
在30%坡道上精准泊车(控制精度达厘米级)
4. 特色技术
- 车路协同(V2X)
- 多智能体强化学习:路口车辆群体调度(北京亦庄路口通过效率提升40%)
- 高精地图匹配
- SLAM+语义分割:定位误差<10cm
算法性能指标(Apollo 6.0)
| 模块 | 算法 | 关键指标 |
|---|---|---|
| 目标检测 | BEVFormer | 召回率98.5%(雨天) |
| 决策规划 | POMDP+模仿学习 | 复杂场景干预率<1次/千公里 |
| 控制 | MPC | 横向误差<0.1m(60km/h) |
与特斯拉对比
| 技术路线 | 百度Apollo | 特斯拉FSD |
|---|---|---|
| 感知 | 激光雷达+视觉融合 | 纯视觉 |
| 决策 | 规则+强化学习 | 纯端到端神经网络 |
| 优势 | 极端天气更稳定 | 数据规模更大 |
百度Apollo的特点是多传感器冗余+混合决策架构,适合中国复杂路况。其算法已在北京、上海等30+城市落地运营(如萝卜快跑无人出租车)。