【新智元导读】 近日,CVPR 2019 发布接收论文 ID 列表,共计 1300 篇论文被接收,接受率为 25.2%。本文带来 7 篇 CVPR 2019 论文荐读,包括目标检测、图像分类、3D 目标检测、3D 重建、点云分割等主题,一睹为快!
前几日,CVPR 2019 官方推特发布消息公布了本次大会接收论文 ID:
接收论文列表链接如下:
cvpr2019.thecvf.com/files/cvpr_…
据统计,今年共计 1300 篇论文被 CVPR 2019 接收,相比去年被接收论文数量增加了 32.8%。今年的接收率为 25.2%。
而此次论文提交数量是 5165 篇,相比 CVPR 2018 增加了 56%。
Twitter 网友 Simon Kornblith 自制了接收论文 ID 结果分布图:
他认为,提交 ID 与接收论文数之间的关系为:中期>早期>后期。
结果一出,众多学术机构、高校和个人,已然纷纷开始 “炫” 成绩。相信在接下来的一段时间里,陆续会有更多人公布自己论文结果了。新智元也会对此结果进行跟进。
下面,我们重点推荐 7 篇 CVPR 2019 的新鲜热文,包括目标检测、图像分类、3D 目标检测、3D 重建、点云分割等主题,一睹为快!论文列表来自中科院自动化所博士生朱政的 CV arXiv Daily。
[1] CVPR2019 检测新文
论文题目: Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression
作者: Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, Silvio Savarese
论文链接: arxiv.org/abs/1902.09…
摘 要
Intersection over Union (IoU) 是目标检测基准中最常用的一个评估指标。然而,在优化用于回归边界框参数的常用距离损失和最大化这个度量值之间存在差距。对一个指标来说,最佳目标是指标本身。在轴对齐的 2D 边界框的情况下,可以证明 IoU 可以直接作为回归损失使用。然而,IoU 具有平台,使得在不重叠边界框的情况下进行优化是不可行的。
在这篇论文中,作者通过引入一个 generalized version 同时作为新损失和新指标来解决 IoU 的缺陷。通过将这个 generalized IoU (GIoU) 作为一种损失采用到最新的目标检测框架中,在 PASCAL VOC 和 MS COCO 等流行目标检测基准得到了性能改进。
[2] CVPR2019 分类新文
论文题目: Learning a Deep ConvNet for Multi-label Classification with Partial Labels
作者: Thibaut Durand, Nazanin Mehrasa, Greg Mori
论文链接: arxiv.org/abs/1902.09…
摘 要
深度卷积网络 (Deep ConvNets) 在单标签图像分类 (如 ImageNet) 中表现出色,但是有必要超出单标签分类任务,因为日常生活中的图像本质上是多标签的。多标签分类比单标签分类更困难,因为输入图像和输出标签空间都更复杂。此外,与单标签注释相比,大规模地收集干净的多标签注释更难。为了降低标注成本,我们建议训练带有部分标签的模型,即每个图像只知道部分标签。
我们首先对不同的标签策略进行实证比较,证明在多标签数据集上使用部分标签的潜力。然后,为了学习部分标签,我们提出一种新的分类损失,它利用了每个样本中已知标签的比例。我们的方法允许使用与使用所有注释时相同的训练设置。我们进一步探讨了几种预测缺失标签的策略。实验在 3 个大型多标签数据集上进行:MS COCO, NUS-WIDE 和 Open Image。
[3] CVPR2019 3D detection 新文
论文题目: Stereo R-CNN based 3D Object Detection for Autonomous Driving
作者: Peiliang Li, Xiaozhi Chen, Shaojie Shen
论文链接: arxiv.org/abs/1902.09…
摘 要
本文提出一种充分利用立体图像中稀疏信息和密集信息、语义信息和几何信息的自动驾驶 3D 目标检测方法。我们的方法称为 Stereo R-CNN,它将 Faster R-CNN 拓展到立体输入,以同时检测和关联左右图像中的对象。我们的方法不需要深度输入和 3D 位置监控,但优于所有现有的基于图像的全监控方法。在具有挑战性的 KITTI 数据集上的实验表明,我们的方法在 3D 检测和 3D 定位任务上的性能都比此前最先进的方法高出约 30% AP。代码将公开发布。
[4] CVPR2019 3D Reconstruction 新文
论文题目: Single-Image Piece-wise Planar 3D Reconstruction via Associative Embedding
作者: Zehao Yu, Jia Zheng, Dongze Lian, Zihan Zhou, Shenghua Gao
论文链接: arxiv.org/abs/1902.09…
代码链接: github.com/svip-lab/Pl…
摘 要
单图像分段平面 3D 重建的目的是同时分割平面实例和从图像恢复 3D 平面参数。最近的方法都是利用卷积神经网络 (CNN),并取得了很好的效果。然而,这些方法仅限于检测具有一定学习顺序的固定数量的平面。
为了解决这个问题,我们提出了一种新的基于关联嵌入的两阶段方法,启发自最近在实例分割方面的成功。在第一阶段,我们训练 CNN 将每个像素映射到一个嵌入空间,其中来自相同平面实例的像素具有类似的嵌入。然后,利用一种有效的平均位移聚类算法对平面区域内的嵌入向量进行分组,得到平面实例。在第二阶段,我们通过考虑像素级和实例级的一致性来估计每个平面实例的参数。利用该方法,我们能够检测任意数量的平面。在公共数据集上的大量实验验证了该方法的有效性。此外,我们的方法在测试时运行速度达到 30fps,因此可以促进许多实时应用,如可视化 SLAM 和人机交互。
[5] CVPR2019 点云分割新文
论文题目: Associatively Segmenting Instances and Semantics in Point Clouds
作者: Xinlong Wang, Shu Liu, Xiaoyong Shen, Chunhua Shen, Jiaya Jia
论文链接: arxiv.org/abs/1902.09…
代码链接: github.com/WXinlong/AS…
摘 要
3D 点云准确而直观地描述了真实场景。到目前为止,如何在这样一个信息丰富的 3D 场景中分割各种元素,还很少得到讨论。
在本文中,我们首先介绍了一个简单而灵活的框架,用于同时分割点云中的实例和语义。然后,我们提出了两种方法,使两项任务互相利用,实现双赢。具体来说,我们通过学习语义感知的 point-level 实例嵌入,使实例分割受益于语义分割。同时,将属于同一实例的点的语义特征融合在一起,从而对每个点更准确地进行语义预测。我们的方法在 3D 实例分割方面大大优于目前最先进的方法,在 3D 语义分割方面也有很大的改进。
[6] CVPR2019 点云分割新文
论文题目: RepNet: Weakly Supervised Training of an Adversarial Reprojection Network for 3D Human Pose Estimation
作者: Bastian Wandt, Bodo Rosenhahn
论文链接: arxiv.org/abs/1902.09…
摘 要
本文研究了基于单幅图像的 3D 人体姿态估计问题。长期以来,人类骨骼是通过满足 reprojection error 进行参数化和拟合观察,但现在研究人员可以直接利用神经网络从观测结果中推断出 3D 姿态。
然而,这些方法大多忽略了必须满足重投影约束 (reprojection constraint) 的事实,并且对过拟合很敏感。我们通过忽略 2D 到 3D 的对应来解决过拟合问题。这有效地避免了对训练数据的简单记忆,并允许弱监督训练。
本文提出的重投影网络 (RepNet) 一部分使用对抗性训练方法来学习从 2D 姿态分布到 3D 姿态分布的映射。网络的另一部分对摄像机进行估计。这允许定义一个网络层,该网络层将估计的 3D 姿态重新投影回 2D,从而产生一个重投影损失函数。我们的实验表明,RepNet 可以很好地对未知数据进行泛化,当应用于未知数据时,它的性能优于此前最先进的方法。此外,我们的实现在台式 PC 上就能实时运行。
[7] CVPR2019 3D Face 新文
论文题目: Disentangled Representation Learning for 3D Face Shape
作者: Zi-Hang Jiang, Qianyi Wu, Keyu Chen, Juyong Zhang
论文链接: arxiv.org/abs/1902.09…
摘 要
本文提出了一种解析 3D 人脸形状表示的新策略。具体来说,将给定的 3D 人脸形状分解为特征部分 (identity part) 和表情部分 (expression part),并以非线性方式对其进行编码和解码。
为了解决这个问题,我们提出一个 3D 人脸网格的属性分解框架。人脸形状用基于顶点的变形表示,而不是用欧几里德坐标表示。实验结果表明,该方法在特征部分和表情部分的分解上都优于现有方法。与现有方法相比,该方法可以获得更自然的表情转换结果。
新智元 · AI_era
每日推送 AI 领域前沿学术解读、AI 产业最新资讯
戳右上角【+ 关注】↗↗
喜欢请分享、点赞吧