6月14日,大家期待已久的计算机视觉和模式识别领域的顶级会议CVPR2020就要在美国西雅图开幕。虽然由于疫情影响,今年CVPR改为线上会议,但是丝毫不影响大家对CVPR的期待!
CVPR2020共接受1467篇会议论文,接受率约为22%,相较于2019年的25%和2018年的29.6%有所下降,被接收会议目录已经在官网上公布。今年的会议为期5天,将于14日正式开幕,19日结束,会议涵盖OralSessionProgram、Tutorials、Workshops和DoctoralConsortium等一系列活动。
接下来,我们就先来回顾下2015-2019五年来CVPR的会议情况。
详解CVPR
CVPR英文全称ConferenceonComputerVisionandPatternRecognition,中文全称是国际计算机视觉与模式识别会议,由IEEE每年主办一次,是计算机视觉世界三大顶会之一。
通过对AMiner平台中CVPR2015-2019这五年来收录论文数据的进一步挖掘,从词云可以看出,CVPR的关键词主要集中在ObjectDetection、SemanticSegmentation、PersonRe-Identification、ActionRecognition、SingleImage、ConvolutionalNeutralNetworks等方向。
通过对2015-2019这五年来接收论文中所有学者信息的提取,我们分析了这些学者的性别比例、国籍分布与语言分布情况。可以看出,CVPR的投稿学者以男性为主,占比88.18%。从学者分布情况来看,投稿学者主要来自中国、美国,分别占比34.85%、32.24%,其次是英国和日本,占比4.34%、3.22%。
从投稿学者发表所属机构来看,五年来在CVPR会议中,中国科学院以288篇论文数量排在首位,香港中文大学以212篇位列第二,微软和谷歌分列第三、第四,分别各发表186篇、179篇。而就引用数量而言,谷歌以32784的引用量排名第一,香港中文大学以29624的引用量位列第二,斯坦福列于第三,拥有24740的引用量。
2015-2019五年间高引论文TOP10
2015-2019五年间CVPR的高引论文TOP1是发表于2016年的Deepresiduallearningforimagerecognition一文,引用量达35654次,作者为来自微软团队KaimingHe,XiangyuZhang,ShaoqingRen,JianSun。
这篇论文研究了一种残差学习框架(ResNet),能够简化那些非常深的网络训练,使之更加稳定和有效,该框架让层能根据其输入来学习残差函数而非原始函数。此研究充分表明,这些残差网络的优化更简单,而且能由更深的层来获得更高的准确率。本文在ImageNet数据集上使用了一个152层深的网络来评估ResNet,虽然它相当于8倍深的VGG网络,但是在本文的框架中仍然只具有很低的复杂度。这些残差网络的一个组合模型(ensemble)在ImageNet测试集上的错误率仅为3.57%。
历年最佳论文
通过AMiner的BestPapersvs.TopCitedPapersinComputerScience页面,可以看到CVPR历年来的最佳论文。
2019年最佳论文来自CarnegieMellonUniversity、UniversityofToronto、UniversityCollegeLondon学者的合作论文ATheoryofFermatPathsforNon-Line-of-SightShapeReconstruction。
其余奖项
Longuet-Higgins奖
Longuet-Higgins奖是IEEE计算机协会模式分析与机器智能(PAMI)技术委员会在每年的CVPR颁发的“计算机视觉基础贡献奖”,表彰十年前对计算机视觉研究产生了重大影响的CVPR论文。该奖项以理论化学家和认知科学家H.ChristopherLonguet-Higgins命名。
BestStudentPaperAward(最佳学术论文)
BestPaperHonorableMentionAward:最佳论文提名奖
CVPR最佳论文荣誉奖由会议主席任命的的委员会选出,用于表彰会议中的杰出工作。