一文看尽10篇目标检测最新论文(SpineNet/AugFPN/LRF-Net/SABL/DSFPN等)
點擊上方“CVer”,選擇加"星標"或“置頂”
重磅干貨,第一時間送達
前言
一周前 Amusi 整理了?目標檢測(Object Detection)較為值得關注的論文:
一文看盡16篇目標檢測最新論文(ATSS/MnasFPN/SAPD/CSPNet/DIoU Loss等)
本文再次更新值得關注的最新檢測論文。這次分享的paper將同步推送到 github上,歡迎大家 star/fork(點擊閱讀原文,也可直接訪問):
https://github.com/amusi/awesome-object-detection
注意事項:
本文分享的目標檢測論文既含ICCV 2019和AAAI 2020剛剛開源的目標檢測論文,也有追求 mAP 和 FPS trade-off的論文
論文發布時間段:2019年12月10日-2019年12月14日
目標檢測論文
【1】SABL:側面感知邊界定位可實現更精確的目標檢測
《Side-Aware Boundary Localization for More Precise Object Detection》
時間:20191210
作者團隊:港中文&南洋理工大學&浙大&中科大&商湯
鏈接:https://arxiv.org/abs/1912.04260
代碼即將開源:https://github.com/open-mmlab/mmdetection
注:Side-Aware Boundary Localization (SABL),替代bounding box regression,顯著提升目標檢測性能,如Faster R-CNN, RetinaNet, and Cascade R-CNN分別漲點3.0%, 1.6%, and 0.9%!
Pipeline of SABL for two-stage detector
Pipeline of?SABL?for?two-stage detector
【2】使用強化學習對大圖像進行有效的目標檢測
《Efficient Object Detection in Large Images using Deep Reinforcement Learning》
時間:20191210(WACV 2020)
作者團隊:斯坦福大學
鏈接:https://arxiv.org/abs/1912.03966
注:為了減少在高空大分辨率的遙感影像進行目標檢測所耗費的計算成本,我們提出了一種增強學習方法:CPNet+FPNet,該方法自適應地選擇提供給檢測器的每個圖像的空間分辨率。
【3】DSFPN:用于目標檢測和實例分割的雙重監督特征金字塔網絡
《Dually Supervised Feature Pyramid for Object Detection and Segmentation》
時間:20191210
作者團隊:天普大學&小鵬汽車等
鏈接:https://arxiv.org/abs/1912.03730
注:可有效提高Faster RCNN、Cascade RCNN和Mask RCNN的mAP!
【4】SpineNet:用于識別和定位的尺度排列Backbone
《SpineNet: Learning Scale-Permuted Backbone for Recognition and Localization》
時間:20191212
作者團隊:Google Research(Quoc V. Le大佬)
鏈接:https://arxiv.org/abs/1912.05027
注:谷歌近期推出EfficientDet和MnasFPN后,今兒又推出SpineNet,基于RetinaNet,mAP直接高達49.2!模型更小、更快
【5】IoU-uniform R-CNN:突破RPN的局限性
《IoU-uniform R-CNN: Breaking Through the Limitations of RPN》
時間:20191212
作者團隊:華中科技大學&中南民族大學
鏈接:https://arxiv.org/abs/1912.05190
代碼:https://github.com/zl1994/IoU-Uniform-R-CNN
注:IoU-uniform R-CNN應用至Faster R-CNN、Cascade R-CNN直接漲點0.5-2個點!
【6】AugFPN:改進用于目標檢測的多尺度特征學習
《AugFPN: Improving Multi-scale Feature Learning for Object Detection》
時間:20191212
作者團隊:中科院&地平線
鏈接:https://arxiv.org/abs/1912.05384
注:AugFPN替換FPN,可幫助Faster R-CNN和RetinaNet漲點1.6AP,幫助FCOS漲點 0.9AP!代碼即將開源
Overall pipeline of AugFPN based detector
【7】RDSNet:用于目標檢測和實例分割的新的深度網絡
《RDSNet: A New Deep Architecture for Reciprocal Object Detection and Instance Segmentation》
時間:20191212(AAAI 2020)
作者團隊:中科院&地平線&國科大
鏈接:https://arxiv.org/abs/1912.05070
代碼:https://github.com/wangsr126/RDSNet
RDSNet architecture
【8】從Noisy Anchors學習以進行One-stage目標檢測
《Learning from Noisy Anchors for One-stage Object Detection》
時間:20191213
作者團隊:馬里蘭大學帕克分校&Salesforce
鏈接:https://arxiv.org/abs/1912.05086
注:直接對RetinaNet性能提升2個點,性能優于FASF、ExtremeNet和FCOS等網絡
【9】用于精確定位的IoU感知的Single-stage目標檢測器
《IoU-aware Single-stage Object Detector for Accurate Localization》
時間:20191213
作者團隊:華中科技大學
鏈接:https://arxiv.org/abs/1912.05992
注:IoU-aware基于RetinaNet,可漲點1.0%~1.6%
The architecture of IoU-aware single-stage object detector
【10】LRF-Net:高速學習豐富的特征以進行Single-Shot目標檢測
《Learning Rich Features at High-Speed for Single-Shot Object Detection》
時間:20191214(ICCV 2019)
作者團隊:天津大學&IIAI
鏈接:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Wang_Learning_Rich_Features_at_High-Speed_for_Single-Shot_Object_Detection_ICCV_2019_paper.pdf
代碼:https://github.com/vaesl/LRF-Net
注:超越YOLOV3、RetinaNet等Single-stage網絡,速度高達52FPS!代碼剛開源!(基于PyTorch)
LRF-Net?網絡結構
為了方便下載,我已經將上述論文打包,在?CVer公眾號?后臺回復:20191217?即可獲得打包鏈接。
備注:公眾號菜單包含了整理了一本AI小抄,非常適合在通勤路上用學習。
往期精彩回顧那些年做的學術公益-你不是一個人在戰斗適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊備注:加入本站微信群或者qq群,請回復“加群”加入知識星球(4500+用戶,ID:92416895),請回復“知識星球”喜歡文章,點個在看
總結
以上是生活随笔為你收集整理的一文看尽10篇目标检测最新论文(SpineNet/AugFPN/LRF-Net/SABL/DSFPN等)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: AI基础:机器学习的损失函数
- 下一篇: 风控特征—时间滑窗统计特征体系