【新智元导读】 中山大学使用自监督学习精准预测三维人体位姿。新方法减少了对 3D 标记数据的依赖,还能通过使用现有的大量 2D 标记数据提高最终预测结果,实现低成本、可扩展的 3D 人体位姿估计实际应用。
3D 人体位姿估计是当前的一个热点研究课题,也具有广泛的应用潜力。
深度神经网络已经在 2D 人体位姿估计上取得了优异的结果,如果想使用深度学习,在 3D 人体位姿估计中也取得同样的效果,那么首先就需要大量的 3D 人体位姿标记数据。
但问题是,现在没有大量带精准标记的 3D 人体位姿数据。
在一篇最新发表于《IEEE 模式分析与机器智能会刊》(PAMI) 的论文 [1] 中,中山大学的研究人员提出了一种新的方法,让计算机通过自监督学习的方式,精准预测视频片段中的三维人体位姿,大幅减少对 3D 标记数据的依赖。
“我们通过有效结合二维时空关系和三维几何知识,提出了一个由自监督学习引导的快速精准三维人体位姿估计方法。” 论文一作、目前在加州大学洛杉矶分校 (UCLA) 朱松纯教授实验室担任博士后研究员的王可泽博士告诉新智元。在完成这篇论文时,王可泽还是中山大学和香港理工大学的博士生,导师是中山大学 HCP 人机物智能融合实验室的林倞教授 (林教授也参与了这项工作) 和香港理工大学的张磊博士。
新方法在 Human3.6M 基准测试中的一些可视化结果。(a) 为 2D-to-2D 位姿变换模块估计的中间 3D 人体位姿,(b) 为 3D-to-2D 位姿映射模块细化的最终 3D 人体位姿,(c) 为 ground-truth。估计的 3D位姿被重新映射到图像中,并在侧面 (图像旁边) 显示出来。如图所示,与 (a) 相比,(b)中预测的 3D 位姿得到了显著的修正。红色和绿色分别表示人体左侧和右侧。来源:论文《自监督学习引导的人体三维位姿估计》[1]
“该方法采用轻量级的神经网络,有效减少了计算量,并克服了三维人体位姿标注数据不够丰富的难点,能在实际应用场景中流畅稳定地进行三维人体位姿预测。”
在单个的 Nvidia GTX1080 GPU 上运行时,新方法处理一幅图像只需要 51 毫秒,而其他方法需要 880 毫秒。
使用自监督学习,减少对 3D 标记数据的依赖
这篇论文题为《自监督学习引导的人体三维位姿估计》(3D Human Pose Machines with Self-supervised Learning),作者是王可泽,林倞,江宸瀚,钱晨和魏朋旭。
研究人员向新智元介绍,他们这项工作的背景,是现有的基于彩色图像视频数据的三维人体位姿估计研究,在实际场景应用中有两大明显的不足:
-
一是所需要的计算量大:当前,绝大多数的现有三维人体位姿估计方法,都依赖最先进的二维人体位姿估计来获得精准的二维人体位姿,然后再构建神经网络,实现从 2D 到 3D 人体位姿的映射。由于采用的二维人体位姿估计方法往往需要庞大的计算量,再加上所构建的神经网络自身的运算开销,难以满足三维人体位姿估计在实际应用中的时间需求;
-
二是应用效果不理想: 当前的三维人体位姿数据集都是在受控的实验环境下创建的 (摄像机视角固定、背景单一),所包含的三维标注信息不够丰富,不能全面反映真实生活场景,使得现有方法所预测出的三维人体位姿质量参差不齐,鲁棒性差。
为了解决上述的问题,研究人员进行了深入的研究和分析,尝试利用海量的二维人体位姿数据来弥补三维标注信息不丰富的问题。
同时,他们受二维和三维空间彼此存在的联系启发,根据三维人体位姿的映射是二维人体位姿这一几何特性,结合之前的自监督学习工作(参考王可泽博士等人此前的论文 [2]),制定了 2D 到 3D 变换和 3D 到 2D 映射的自监督学习任务。
这一关键的 2D 和 3D 相互转换自监督学习模块架构示意如下:
3D 到 2D 人体位姿映射模块训练阶段示意图
3D 到 2D 人体位姿映射模块测试阶段示意图
在这项研究中,作者使用 MPII 数据集,从图像中提取 2D 人体位姿。然后,使用另一个名为 “Human3.6M” 的数据集,提取 3D 的 ground truth 数据。Human3.6M 数据集包含有 360 万张在实验室拍摄的照片,任务包括跑步、散步、吸烟、吃饭,等等。
初始化后,他们将预测的 2D 人体位姿和 3D 人体位姿替换为 2D 和 3D 的 ground-truth,从而以自监督学习的方式优化模型。
3D-to-2D 人体位姿映射模块的学习目标,就是将 3D 人体位姿的 2D 映射与预测的 2D 人体位姿两者间的差异最小化,以实现对中间 3D 人体位姿预测的双向校正 (或细化)。
“模型采用了序列训练的方法来捕获人体多个部位之间的长期时间一致性,并通过一种新的自监督校正机制进一步增强这种一致性,这包含两个对偶学习任务,即 2D-to-3D 位姿变换和 3D-to-2D 位姿映射,从而生成几何一致的 3D 位姿预测。”
经过自监督校正以后的结果 (Ours) 比没有经过校正的 (Ours w/o self-correction) 更接近 Ground-truth。来源:论文
未来方向:非受限条件下三维人体位姿预测
研究人员在论文中指出,这项工作的主要贡献有三方面:
- 提出了一种新的模型,可以学习整合丰富的时空长程依赖性和 3D 几何约束,而不是依赖于特定的手动定义的身体平滑度或运动学约束;
- 开发了一种简单有效的自监督校正机制,以结合 3D 位姿几何结构信息;这一创新机制也可能启发其他 3D 视觉任务;
- 提出了自监督校正机制,使模型能够使用足够的 2D 人体位姿数据,显著提高 3D 人体位姿估计的性能。
新方法 (Ours,红框标识) 显著优于其他同类方法,绿色代表右侧手脚,红色代表左侧 (下同):最右边一列为 Ground-truth;使用 Human3.6M 数据集。
新方法 (Ours) 与 ICCV-17 微软危夷晨组在 MPII 数据集上的结果比较,后者使用弱监督迁移学习将 2D 和 3D 标记混合在一个统一的深度学习框架里,在 2D 和 3D 基准上都取得了较好的结果。新方法在 3D 预测上更进一步。
自监督学习的价值显然是人工智能研究的一个重点。
其他方法也采用了类似的 “弱监督” 方法来预测位姿,甚至捕捉人体运动。例如,加州大学伯克利分校 Sergey Levine 教授的机器人实验室去年 10 月发表论文称,他们能够训练模拟机器人模仿人类活动,只使用 YouTube 视频的无标注数据。中山大学的这一工作未来或许能与伯克利的方法实现某种结合。
研究人员告诉新智元,接下来,“我们会针对于实际非受限场景中更加复杂多变的三维人体位姿预测问题,开展进一步研究;另外,进一步优化我们的方法,希望能在移动端实现实时精准的预测效果”。
参考文献
实验室简介
中山大学 HCP 人机物智能融合实验室依托于中山大学数据科学与计算机学院,以 “攀学术高峰、踏应用实地” 为工作理念,围绕 “人工智能原创和前沿技术” 布局研究方向与课题,获得科研经费超过数千万元,在顶级国际期刊与会议上发表论文 200 余篇,并与产业界合作广泛。