ECCV 2020大奖出炉!李飞飞高徒邓嘉及其学生共摘最佳论文奖,谷歌50篇一骑绝尘
【新智元導讀】兩年一度的 ECCV 2020 大獎終于來了!今年的最佳論文獎由普林斯頓大學 Zachary Teed 和鄧嘉摘得,還有最佳論文提名獎,Demo 獎等五大獎項公布。
全球計算機視覺三大頂會之一,兩年一度的 ECCV 2020(歐洲計算機視覺國際會議)于 8 月 23 日-28 日召開。受到疫情影響,今年的 ECCV 首次以線上的形式舉行。
剛剛,ECCV 2020 一共公布了五項大獎項,分別是最佳論文獎、最佳論文提名獎、Koenderink 獎、Mark Everingham 獎、Demo 獎。
今年的最佳論文獎由普林斯頓大學 Zachary Teed 及其導師鄧嘉摘得,來自卡內基梅隆大學的一作華人學生 Mengtian Li 獲得最佳論文提名獎。
- 五大獎項一覽:最佳論文、最佳論文提名、Demo 論文
最佳論文獎
最佳論文獎由來自普林斯頓大學 Zachary Teed 和鄧嘉摘得,獲獎論文是「RAFT:Recurrent All-Pairs Field Transforms for Optical Flow 」。值得一提的是,鄧嘉正是 Zachary Teed 的導師,而鄧嘉曾師從李飛飛教授。
論文鏈接:https://arxiv.org/pdf/2003.12039.pdf
論文摘要:本篇論文主要介紹了一種新的光流深度網(wǎng)絡架構——遞歸全對場變換(RAFT)。RAFT 提取每個像素特征,為所有像素對構建多尺度 4D 相關體,并通過一個循環(huán)單元迭代更新流場,該單元執(zhí)行相關體積的查找。
這一架構 RAFT 達到了 SOTA 的性能。
在 KITTI 上,RAFT 的 F1-all 誤差為 5.10%,比已知的最佳結果 6.10%,減少了 16%。在 Sintel 上,RAFT 獲得的 end-point-error 為 2.855 像素,比已知最佳結果 4.098 像素,減少了 30%。
此外,RAFT 算法具有較強的跨數(shù)據(jù)集泛化能力,在推理時間、訓練速度、參數(shù)計數(shù)等方面具有較高的效率。
項目地址:https://github.com/princeton-vl/RAFT
論文第一作者 Zachary Teed 是來自普林斯頓大學在讀博士生,他的導師是鄧嘉。同時, Zachary Teed 是普林斯頓視覺與學習實驗室(Princeton Vision & Learning Lab)的一名成員。他曾獲得圣路易斯華盛頓大學的計算機科學學士學位。他的研究重點:從 3D 視頻進行重建,包括運動,場景流和 SLAM 中的結構。
個人主頁:https://zachteed.github.io/
我們熟知的鄧嘉正是李凱和李飛飛教授的學生,ImageNet 首篇文章的第一作者。鄧嘉現(xiàn)在在普林斯頓大學視覺與學習實驗室任助理教授,主要研究方向為計算機視覺和機器學習,即通過感知、認知和學習相結合來實現(xiàn)人類層面的視覺理解。
個人主頁:https://www.cs.princeton.edu/~jiadeng/
最佳論文提名獎
今年有兩篇論文獲得了最佳論文提名獎:
論文一:「Towards Streaming Image Understanding」
論文鏈接:https://arxiv.org/pdf/2005.10420.pdf
論文摘要:這篇論文指出了標準離線評估和實時應用程序之間的一個差異,即當一個算法完成對特定圖像幀的處理時,周圍的世界已經(jīng)發(fā)生了變化。研究者提出了一種方法,將延遲和準確度統(tǒng)一到一個用于實時在線感知的指標中,并將其稱之為流式準確性(streaming accuracy)。
此指標背后的關鍵洞察是在每個時刻聯(lián)合評估整個感知堆棧的輸出,迫使堆棧考慮在進行計算時應忽略的流數(shù)據(jù)。基于這個指標,研究者引入了一個元基準,它系統(tǒng)地將任何圖像理解任務轉換為流圖像理解任務。針對城市視頻流中的目標檢測和實例分割,提出了一種具有高質量和時間密集標注的數(shù)據(jù)集。
論文第一作者 Mengtian Li 是一位來自卡內基梅隆大學機器人研究所的博士生,曾獲得南京大學學士學位。他的研究興趣是計算機視覺和機器學習,特別對資源受限的深度學習和推理感興趣。
個人主頁:http://www.cs.cmu.edu/~mengtial/
論文二:「NeRF:Representing Scenes as Neural Randince Fields for View Synthesis」
論文摘要:研究者們提出了一種通過使用稀疏輸入視圖集優(yōu)化底層連續(xù)體積場景函數(shù)來獲得合成復雜場景新視圖的方法。研究者們描述了如何有效地優(yōu)化神經(jīng)輻射場,以渲染具有復雜幾何和外觀的真實感場景的新視圖,并展示了優(yōu)于先前神經(jīng)渲染和視圖合成的結果。
Koenderink 獎
Koenderink 獎是來表彰十年對計算機視覺領域做出巨大貢獻的經(jīng)典論文。今年 Koenderink 獎授予以下兩篇論文:論文一:「Improving the Fisher Kernel for Large-Scale Image Classification」
論文鏈接:https://lear.inrialpes.fr/pubs/2010/PSM10/PSM10_0766.pdf
論文摘要:Fisher 內核(FK)是一個通用框架,它結合了生成和區(qū)分方法的優(yōu)點。在圖像分類的背景下,F(xiàn)K 被證明超越了計數(shù)統(tǒng)計,擴展了流行的視覺單詞包(BOV)。然而,在實踐中,這種豐富的代表性還沒有顯示出它優(yōu)于 BOV。
在第一部分中,研究者展示了在原始框架的基礎上,通過一些動機良好的修改,可以提高 FK 的準確性。在第二部分中,作為應用,研究者比較了 ImageNet 和 flickrgroups 這兩個豐富的標記圖像資源來學習分類器。
在一項涉及數(shù)十萬個訓練圖像的評估,結果發(fā)現(xiàn),F(xiàn)lickr 組中學習的分類器表現(xiàn)出色,而且它們可以補充在更仔細注釋的數(shù)據(jù)集上學習的分類器。
論文二:「Brief:Binary robust independent elementary featueres」
論文鏈接:https://www.cs.ubc.ca/~lowe/525/papers/calonder_eccv10.pdf
論文摘要:研究者提出使用二進制字符串作為一個有效的特征點描述符,并將其稱之為 BRIEF。研究表明,即使使用相對較少的比特,它仍然具有很高的分辨力,并且可以通過簡單的強度差分測試來計算。
除此之外,可以使用漢明距離來評估描述符相似度,這是非常有效的計算,而不是像通常所用的 L2 范數(shù)。因此,BRIEF 的構建和匹配都非常快。
最后,研究人員將其與標準基準測試中的 SURF 和U-SURF 進行了比較,結果表明它產(chǎn)生了相似或更好的識別性能,而運行時間只需其中一個的一小部分。
Mark Everingham 獎
Mark 獎的設立是為了紀念在 2012 去世的 Mark Everingham,他在 The PASCAL Visual Object Classes (VOA)數(shù)據(jù)集做出主要貢獻,也是該比賽項目的發(fā)起人。同時,Mark 獎的設立也是為了激勵后來者在計算機視覺領域做出更多貢獻。
今年第一位獲得 PAMI Mark Everingham 獎的是 Antonio Torralba 和多數(shù)據(jù)集的合作者,為了表彰他們持續(xù)了十多年定期發(fā)布新的數(shù)據(jù)集和創(chuàng)建這些數(shù)據(jù)集的新方法。
這些數(shù)據(jù)集包含 Tiny images,SUN/SUN-3D,MIT-Places,創(chuàng)建數(shù)據(jù)集新方法的工具包括 LabelMe,它們已經(jīng)在視覺領域影響深遠。
個人主頁:https://groups.csail.mit.edu/vision/torralbalab/
今年第二位獲得 PAMI Mark Everingham 獎的是 COLMAP SFM 和 MVS 軟件庫的提出人 Johannes Schonberger,以表彰他為 3D 重建圖像提出的一個開源的端到端 pipeline,并為之提供的支持、開發(fā)與編寫文檔。
個人主頁:https://demuc.de/
Demo 獎
「Inter-Homines: Distance-Based Risk Estimation for Human Safety」
論文鏈接:https://arxiv.org/pdf/2007.10243.pdf
在新冠疫情肆意傳播情況下,本篇論文的研究者們提出了一個 Inter-Homines 系統(tǒng),該系統(tǒng)可以通過分析視頻流來實時評估受監(jiān)視區(qū)域中的傳染風險。
Demo 獎提名
1 FingerTrack:Continous 3D Hand Pose Tracking
論文鏈接:https://dl.acm.org/doi/abs/10.1145/3397306
2 Object Detection Kit:Identifying Urban Issues in Real-time
論文鏈接:https://dl.acm.org/doi/abs/10.1145/3372278.3390708
- ECCV 2020 華人學者入圍情況,阿里張磊位列第一
據(jù) Aminer 統(tǒng)計,來自阿里達摩院的張磊教授,共入選 8 篇論文,位列第一。
排在第二位是澳大利亞阿德萊德大學教授沈春華,入選論文 7 篇。
第三名是默罕默德·本·扎耶德人工智能大學副校長邵嶺教授入選論文共 6 篇。
第四名是來自香港中文大學林達華教授,共有 5 篇論文入選。
并列第五的華人學者有:來自華為諾亞方舟實驗室田奇和謝凌曦,微軟亞洲研究院王井東和 Zheng Zhang,香港大學羅平。
- 谷歌 50 篇一騎絕塵,深度學習和識別熱度不減
近年來,計算機視覺大熱,直接導致三大頂會:ICCV、CVPR、ECCV 的論文接收暴漲,可以用「爆倉」來形容。今年主辦方共收到 5150 篇有效文章,數(shù)據(jù)為 ECCV 2018 的兩倍還多,再創(chuàng)新高。
最終有 1360 篇文章被接收發(fā)表,接收率僅 26%,不到三成,較上屆 31.8% 有所下降。在最終接收論文中,Oral 論文 104 篇,占提交總量的2%;Spotlights 論文 160 篇,占提交總量的5%;剩余 1096 篇為 poster。
從每個領域的論文接收數(shù)量可以看出深度學習和識別在 ECCV 中仍是主要研究對象,機器學習位居第三。
再從各個機構錄取論文作者數(shù)量來看,谷歌,香港中文大學、北大、清華、Facebook 居前五。
據(jù)不完全統(tǒng)計,谷歌在本屆 ECCV 2020 會議上被接受的論文有 50 篇,F(xiàn)acebook 約有 41 篇論文被接受。
國內機構入選情況(據(jù)不完全統(tǒng)計):
騰訊 AI Lab(16 篇)
騰訊 AI Lab 共有 16 篇論文被 ECCV 2020 收錄,其中包括 1 篇 Oral 展示論文和 2 篇 Spotlight 展示論文,涵蓋騰訊 AI Lab 近年來重點研究的多模態(tài)學習、視頻內容理解、對抗攻擊與對抗防御、基于生成模型的圖像編輯等課題。
曠視科技(15 篇)
曠視共有 15 篇成果入選,其中包含 Oral 論文 2 篇、Spotlight 論文 1 篇,刷新了上屆入選 10 篇的紀錄。入選論文中涵蓋:圖像檢測、圖像對齊、姿態(tài)估計、激活函數(shù)、CNN 架構設計、動態(tài)網(wǎng)絡、NAS、知識蒸餾、點云配準、細粒度圖像檢索、遷移學習等眾多學術熱門領域,并取得突破性進展。
百度(10 篇)
百度 AI 團隊共入選 10 篇論文,其中 1 篇 Oral 和 1 篇 Spotlight 論文,涵蓋了自動駕駛識別&定位、聲源定位&場景識別、目標跟蹤、多模態(tài)&度量學習等眾多領域,彰顯了 AI 領軍者的風范和深厚的技術底蘊以及持續(xù)創(chuàng)新能力。
騰訊優(yōu)圖(8 篇)
騰訊優(yōu)圖實驗室共入選 8 篇論文,涵蓋目標跟蹤、行人重識別、人臉識別、人體姿態(tài)估計、動作識別、物體檢測等熱門及前沿領域,再次展示了騰訊在計算機視覺領域的科研及創(chuàng)新實力。
參考鏈接:
https://eccv2020.eu/
https://www.aminer.cn/conf/eccv2020
總結
以上是生活随笔為你收集整理的ECCV 2020大奖出炉!李飞飞高徒邓嘉及其学生共摘最佳论文奖,谷歌50篇一骑绝尘的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 战争与和平是谁画的呢?
- 下一篇: 孕初期会水泻吗?怎样缓解腹痛?