阅读 165

【RL-GAN-Net】强化学习控制GAN网络,用于实时点云形状的补全。

  • 论文题目RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion

作者及标题信息截图

所解决的问题

  用强化学习控制GAN网络,以使得GAN更快,更鲁棒。将其用于点云数据生成。全网第一次用RL控制GAN。通过数据驱动的方法填补三维数据中的数据缺失。

所采用的方法?

The forward pass of our shape completion network

  预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN网络。强化学习智能体用于选择合适的zz向量,去合成隐空间的表示。与之前的反向传播发现zz向量不同,本文采用RL的方法进行选择。

  主要由三个模块组成:1. 自编码器;2. ll-GAN;3. 强化学习智能体(RL)。

自编码器

  自编码器用的损失函数如下:

dCH(P1,P2)=aP1minbP2ab22+bP2minaP1ab22d_{C H}\left(P_{1}, P_{2}\right)=\sum_{a \in P_{1}} \min _{b \in P_{2}}\|a-b\|_{2}^{2}+\sum_{b \in P_{2}} \min _{a \in P_{1}}\|a-b\|_{2}^{2}

  其中P1P_{1}P2P_{2}代表点云的输入和输出。

ll-GAN

  结合GFV来训练GAN

  • Chamfer loss:

  输入点云数据PinP_{in}和生成器和解码器输出数据E1(G(z))E^{-1}(G(z))loss

LCH=dCH(Pin,E1(G(z)))L_{C H}=d_{C H}\left(P_{i n}, E^{-1}(G(z))\right)

  • GFV loss:生成CFV G(z)G(z)和输入点云E(Pin)E(P_{in})

LGFV=G(z)E(Pin)22L_{G F V}=\left\|G(z)-E\left(P_{i n}\right)\right\|_{2}^{2}

  • Discriminator loss 判别器损失函数:

LD=D(G(z))L_{D}=-D(G(z))

网络结构

强化学习

  强化学习用于快速选择GAN生成器的输入zz

强化学习网络结构

  奖励函数定义为:

r=wCHrCH+wGFVrGFV+wDrDr=w_{C H} \cdot r_{C H}+w_{G F V} \cdot r_{G F V}+w_{D} \cdot r_{D}

  其中 rCH=LCHr_{CH}=-L_{CH}rGFV=lGFVr_{GFV}=-l_{GFV}rD=LDr_{D}=-L_{D}。智能体用DDPG算法。

算法伪代码

取得的效果?

实验结果

与其它算法对比

奖励函数分析

参考资料

  相似文献

  • Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas. Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, 2017. (有提到用隐空间数据训练GAN会更稳定)。

  相关GitHub链接

文章分类
人工智能
文章标签