【论文解读】CVPR 2020:物体检测论文精选
作者:Derrick Mwiti? ? ?編譯:ronghuaiyang
導讀
最近的CVPR 2020在推動物體檢測前進方面有相當多的貢獻。在這篇文章中,我們將看到幾篇特別令人印象深刻的論文。
A Hierarchical Graph Network for 3D Object Detection on Point Clouds
這篇文章提出了一種基于圖卷積(GConv)的層次圖網絡(HGNet)用于三維目標檢測。它直接處理原始點云來預測3D邊界框。HGNet能夠捕獲點之間的關系,并使用多級語義進行物體檢測。
論文:http://openaccess.thecvf.com/content_CVPR_2020/html/Chen_A_Hierarchical_Graph_Network_for_3D_Object_Detection_on_Point_CVPR_2020_paper.html
HGNet由三個主要部分組成:
基于GConv的U形網絡(GU-net)
Proposal生成器
Proposal推理模塊(ProRe模塊) — 使用全連通圖對proposals進行推理
作者提出了一種形狀注意力的GConv (SA-GConv)來捕獲局部形狀特征。通過建模相對的幾何位置來描述物體的形狀。
基于SA-GConv的U形網絡捕獲了多層特征。然后,投票模塊將它們映射到一個相同的特征空間,并用于生成proposals。在下一步中,基于GConv的proposals 推理模塊使用proposals 來預測邊框。
下面是在SUN RGB-D V1數據集上獲得的一些性能結果。
HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection
在本文中,作者提出了Hybrid Voxel網絡(HVNet),一種用于自動駕駛的基于點云的三維物體檢測的一階段的網絡。
論文:http://openaccess.thecvf.com/content_CVPR_2020/html/Ye_HVNet_Hybrid_Voxel_Network_for_LiDAR_Based_3D_Object_Detection_CVPR_2020_paper.html
本文使用的voxel特征編碼(VFE)方法包括三個步驟:
Voxelization —— 分配一個點云到一個2D voxel 網格
Voxel 特征提取 —— 計算一個網格依賴的point-wise特征,它被送給一個PointNet風格的特征編碼器
投影 —— 將point-wise特征聚合到voxel-level的特征并將其投影到原始網格中。這就形成了一個偽圖像特征圖。
voxel的大小在VFE方法中是非常重要的。更小的voxel 尺寸捕獲更精細的幾何特征。它們也更擅長于物體的定位,但需要更長的推理時間。使用更粗的voxel 可以獲得更快的推理速度,因為它會導致更小的特征圖。然而,它的性能較差。
作者提出使用混合voxel網絡(HVNet)來利用細粒度的voxel 特征。它由三個步驟組成:
多尺度體Voxelization — 創建一組特征voxel 尺度,并將其分配給多個voxel 。
混合voxel 特征提取 — 計算每個尺度的voxel依賴特征,并將其送入注意力特征編碼器(AVFE)。每個voxel尺度的特征進行point-wise連接。
動態特征投影 — 通過創建一組多尺度物體voxels將特征投影回偽圖像。
以下是在KITTI數據集上獲得的結果。
Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud
本文的作者提出了一個圖神經網絡 — Point-GNN — 來從LiDAR點云檢測物體。該網絡預測了圖中每個頂點所屬物體的類別和形狀。Point-GNN有一個自回歸機制,可以在一個點云中檢測多個物體。
論文:http://openaccess.thecvf.com/content_CVPR_2020/html/Shi_Point-GNN_Graph_Neural_Network_for_3D_Object_Detection_in_a_CVPR_2020_paper.html
提出的方法有三個組成部分:
圖構造:使用voxel下采樣點云進行圖構造
一個T迭代的圖神經網絡
包圍框合并以及打分
以下是在KITTI數據集上得到的結果:
代碼:https://github.com/WeijingShi/Point-GNN
Camouflaged Object Detection
本文提出了檢測嵌入在周圍環境中的物體的挑戰 —— 偽裝物體檢測(COD)。作者還提供了一個名為COD10K的新數據集。它包含10,000張圖片,覆蓋了許多自然場景中偽裝的物體。它有78個物體類別。這些圖像使用類別標簽、邊框、實例級和摳圖級標簽進行標注。
論文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Camouflaged_Object_Detection_CVPR_2020_paper.html
作者開發了一個稱為搜索識別網絡(SINet)的COD框架。
代碼:https://github.com/DengPingFan/SINet/
該網絡有兩個主要模塊:
用于搜索偽裝物體的搜索模塊(SM)
檢測目標的識別模塊(IM)
以下是各數據集的結果:
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector
本文提出了一種few-shot目標檢測網絡,其目標是檢測只含有少量標注樣本的沒見過的類別的物體。
論文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Few-Shot_Object_Detection_With_Attention-RPN_and_Multi-Relation_Detector_CVPR_2020_paper.html
他們的方法包括attention-RPN、多關系檢測器和對比訓練策略。該方法利用few-shot支持集和查詢集之間的相似性來識別新物體,同時減少了誤識別。作者還提供了一個包含1000個類別的新數據集,其中的物體具有高質量的標注。
該網絡體系結構由一個多分支的權值共享框架組成,一個分支是查詢集,其他分支是支持集,權值共享框架的查詢分支是一個Faster R-CNN網絡。
作者介紹了一種帶有多關系模塊和attention-RPN的檢測器,用于在支持和查詢中可能出現的框之間進行精確解析。
下面是在ImageNet數據集上獲得的一些結果。
以下是在一些數據集上獲得的觀察結果。
D2Det: Towards High-Quality Object Detection and Instance Segmentation
本文作者提出了D2Det,一種既能精確定位又能精確分類的方法。他們引入了一個稠密的局部回歸來預測一個物體的proposal的多個稠密box偏移量。這使他們能夠實現精確的定位。
論文:http://openaccess.thecvf.com/content_CVPR_2020/html/Cao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.html
為了實現準確的分類,本文還引入了一種有區分性的RoI pooling方案。pooling方案從該方案的多個子區域中抽取樣本,并進行自適應加權以獲得有區分性的特征。
代碼:https://github.com/JialeCao001/D2Det
該方法基于標準的Faster R-CNN框架。在該方法中,傳統的Faster R-CNN的盒偏置回歸被提出的密集局部回歸所代替。在該方法中,通過有區分性的RoI pooling來增強分類能力。
在兩階段方法中,第一階段采用區域建議網絡(RPN),第二階段采用單獨的分類和回歸分支。分類分支是基于可區分性池化的。本地回歸分支的目標是物體的精確定位。
MS COCO數據集的結果如下:
—END—
英文原文:https://heartbeat.fritz.ai/cvpr-2020-the-top-object-detection-papers-f920a6e41233
往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085。加入微信群請掃碼進群:總結
以上是生活随笔為你收集整理的【论文解读】CVPR 2020:物体检测论文精选的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【Python基础】Matplotlib
- 下一篇: 还怕GPU资源不够用?多实例GPU MI