论文解读 | DeepFusionMOT

379 阅读1分钟

今天带大家阅读的是发表在 RA-L 22 的文章 DeepFusionMOT: A 3D Multi-Object Tracking Framework Based on Camera-LiDAR Fusion With Deep Association

下图是精度-速度对比图,速度最快的 AB3DMOT 我已经精度过了,是单雷达模态的 3D 跟踪基准。EagerMOT 在昨天略读了,是我读的第一篇相机-雷达融合跟踪的文章,有着不错的 trade-off

image.png

经过略读,在我看来今天的 DeepFusionMOTEagerMOT 的改进,把两种模态的数据处理的更加清晰。

  • Inputs:和 EagerMOT 一样,通过三维投影到二维做两种模态检测结果的匹配
  • Deep Association:按优先级清晰地定义了四层关联,1st 是共同检测目标与 3D 轨迹的关联,未关联上的轨迹进入 2nd 与只被雷达检测到的目标做关联。3rd 是只被相机检测到的目标与 2D 轨迹做关联。

image.png

详细读了方法部分之后,4th 关联是对 2nd 关联失败的 3D 轨迹与 3rd 的图像 2D 轨迹做关联,关联成功后将二者合为一个 3D 轨迹,然后将 2D 轨迹移除。