CVPR 2021全部奖项公布:何恺明获提名,最佳学生论文作者GPA满分

未知 2024-04-16 188

就在上周,CVPR官方公布了入围的32篇最佳论文候选名单,其中华人一作占据了16篇,国内北大、腾讯、商汤等学校机构上榜。

那么最终哪些论文摘得荣誉呢?今天凌晨,也就是大会首日,官方公布了结果:

其中最佳论文奖和最佳学生论文奖1篇,最佳学生论文提名3篇,最佳论文提名2篇。

在这7篇文章里,有4篇是华人一作,我们还看到了熟悉的大神何恺明的名字。

7篇获奖论文最佳论文奖

GIRAFFE:RepresentingScenesasCompositionalGenerativeNeuralFeatureFields

这篇论文来自德国蒂宾根大学的两位学者。

摘要:

这篇文章提出,将复合三维场景表示纳入生成模型,会导致更可控的图像合成。将场景表示为复合生成神经特征场,能使我们能够从背景中解开一个或多个对象以及单个对象的形状和外观,同时从非结构化和非定位的图像集合中学习,而无需任何额外的监督。

本文将这种场景表示与神经渲染pipeline相结合,可以生成快速逼真的图像合成模型。实验所证明的,该模型能够解开单个物体,并允许在场景中平移和旋转它们,并改变相机视角。

论文地址:

源代码:

最佳论文提名

今年何恺明获得了最佳论文提名,这篇论文就是:

ExploringSimpleSiameseRepresentationLearning

摘要:

在本文中,作者发现,SimpleSiamese网络即使不使用以下任何一种方式,也可以学习有意义的表示:(i)负样本对,(ii)大batch,(iii)动量编码器。

实验表明,坍塌解决方案确实存在于损失和结构上,但停止梯度操作在防止崩塌方面发挥着至关重要的作用。作者给出了停止梯度含义的假设,并进一步展示了验证它的概念验证实验。

“SimSiam”方法在ImageNet和下游任务上取得了有竞争力的结果。作者希望这个简单的baseline将激励人们重新思考SimSiam架构在无监督表示学习中的作用。

另外,何恺明表示,不久后将提供论文代码。

本文的第一作者是XinleiChen,本科毕业于浙江大学,之后在卡内基梅隆大学获得博士学位,现在与何恺明一样同在FacebookAI研究院工作。

论文地址:

源代码:

另一篇获得提名的是来自明尼苏达大学的两位学者。

LearningHighFidelityDepthsofDressedHumansbyWatchingSocialMediaDanceVideos

摘要:

学习穿戴人体几何的一个关键挑战在于,groundtruth数据的可用性有限,这导致3D人体重建在应用于现实世界图像时的性能下降。

论文地址:

最佳学生论文奖

TaskProgramming:LearningDataEfficientBehaviorRepresentations

作者来自加州理工和西北大学。

摘要:

要进行专业领域知识的深入分析,通常是准确注释训练集是必需的,但从领域专家那里获得这些既繁琐又耗时。这个问题在自动行为分析中非常突出。

为了减少注释工作量,本文提出了TREBA:一种基于多任务自监督学习的注释-行为分析样本高效轨迹嵌入方法。该方法中的任务可以由领域专家通过“任务编程”的过程高效地进行工程化。通过交换数据注释时间来构建少量编程任务,可以减少领域专家的总工作量。

本文在两个领域的三个数据集中给出了实验结果指出,该方法减少了多达10倍的注释负担,而不影响与SOTA方法相比的准确性。

值得一提的是,论文第一作者目前就读于加州理工学院,本科就读于多伦多大学,GPA是4.0。

论文地址:

源代码:

最佳学生论文提名

LessisMore:CLIPBERTforVideo-and-LanguageLearningviaSparseSampling

论文来自北卡大学教堂山分校。

论文地址:

源代码:

BinaryTTC:ATemporalGeofenceforAutonomousNavigation

论文来自英伟达和加州大学圣芭芭拉分校。

本文研究的问题与自动驾驶技术有关,即接触时间(TTC),这是物体与观察者平面碰撞的时间,是路径规划的有力工具,它可能比场景中物体的深度、速度和加速度提供信息更多。

TTC有几个优点,包括只需要一台单目、未校准的相机。然而,每个像素的回归TTC并不简单,大多数现有方法对场景进行了过度简化的假设。本文通过一系列更简单的二元分类来估计TTC来应对这一挑战。这是第一个能偶以足够高的帧速率提供TTC信息的方法。

论文地址:

Real-TimeHigh-ResolutionBackgroundMatting

论文来自华盛顿大学。

主要挑战是计算高质量的阿尔法哑光,保留头发级别的细节,同时实时处理高分辨率图像。为了实现这一目标,作者使用两个神经网络;一个基网络计算低分辨率的结果,该结果再通过第二个在选择性补丁上以高分辨率运行的网络来改进。

与之前方法相比,该方法可以产生更高的质量结果,同时在速度和分辨率方面都显著提高。

该项目代码在GitHub上已经收获3.7k星。

论文地址:

源代码:

PAMITC奖

除了最佳论文相关奖项外,今年大会还颁发了PAMITC奖,包括Longuet-Higgins奖、年轻研究者奖以及首届ThomasHuang纪念奖。

获得Longuet-Higgins奖的两篇论文分别是:

《Real-timehumanposerecognitioninpartsfromsingledepthimage》

《Babytalk:Understandingandgeneratingsimpleimagedescriptions》

获得年轻研究者奖的是来自FAIR的GeorgiaGkioxari和来自MIT的PhillipIsola。

去年计算机视觉领域先驱学者黄煦涛去世,为了纪念他,CVPR决定从今年开始颁发ThomasHuang纪念奖。

第一届ThomasHuang纪念奖的获奖者是MIT计算机教授AntonioTorralba,今年他共有4篇论文入选CVPR。

本届CVPR简介

由于受新冠疫情影响,今年的CVPR仍在线上以虚拟会议形式举行。

今年CVPR共有7039篇有效投稿,接收论文1661篇。

在CVPR召开之际,各大科技公司也陆续晒出了自己成绩单,谷歌发布超过70篇,Facebook发布了52篇。

国内科技公司近年来在CVPR上发表的论文也与国外巨头看齐,如商汤发表66篇、华为诺亚方舟实验室发表30篇,旷视发表22篇,腾讯优图发表20篇,快手发表14篇。

参考链接:


参考资料


Copyright © 2002-2030 上海斐思迪化工国际贸易有限公司 联系我们|上海市浦东新区周康路26号1507室 沪ICP备12042879号-3 上海爱子之家助孕网站地图