一文看尽9篇语义分割最新论文(GPSNet/Graph-FCN/HMANet等)
前言
恰逢 2020年,本文再次更新近期值得關(guān)注的最新語義分割論文。這次分享的paper將同步推送到 github上,歡迎大家 star/fork(點(diǎn)擊閱讀原文,也可直接訪問):
https://github.com/amusi/daily-paper-computer-vision
注意事項(xiàng):
既含航空圖像語義分割網(wǎng)絡(luò),還有域自適應(yīng)等開源網(wǎng)絡(luò)
論文發(fā)布時間段:2020年01月03日-2020年01月29日
語義分割論文
【1】Graph-FCN:用于圖像語義分割的圖卷積網(wǎng)絡(luò)
《Graph-FCN for image semantic segmentation》
時間:20200103
作者團(tuán)隊(duì):中科院&國科大&北京中醫(yī)藥大學(xué)
鏈接:https://arxiv.org/abs/2001.00335
注:As far as we know, it is the first time that we apply the graph convolutional network in image semantic segmentation
Graph-FCN
【2】ExtremeC3Net:極致輕量級人像分割網(wǎng)絡(luò)(使用高級C3模塊)
《ExtremeC3Net: Extreme Lightweight Portrait Segmentation Networks using Advanced C3-modules》
時間:20190812
作者團(tuán)隊(duì):首爾大學(xué)&Clova AI
鏈接:https://arxiv.org/abs/1908.03093
代碼:https://github.com/clovaai/ext_portrait_segmentation
注1:本文之前CVer推送過,但那時還沒有開源,前不久ExtremeC3Net 剛剛開源,所以再次分享給大家,值得關(guān)注和學(xué)習(xí)!
注2:僅37.7K參數(shù)量!性能優(yōu)于PortraitNet、BiSeNet和ESPNetV2等網(wǎng)絡(luò),代碼和數(shù)據(jù)集現(xiàn)已開源!
【3】HMANet:用于航空圖像語義分割的混合多注意力網(wǎng)絡(luò)
《HMANet: Hybrid Multiple Attention Network for Semantic Segmentation in Aerial Images》
時間:20200110
作者團(tuán)隊(duì):中科院&國科大
鏈接:https://arxiv.org/abs/2001.02870
注:在Vaihingen/Potsdam等數(shù)據(jù)集上,表現(xiàn)SOTA!性能優(yōu)于CCNet、ACFNet、PSPNet和DeepLabV3+等
【4】EVS:具有標(biāo)簽傳播和優(yōu)化功能的高效視頻語義分割
《Efficient Video Semantic Segmentation with Labels Propagation and Refinement》
時間:20200112(WACV2020)
作者團(tuán)隊(duì):蘇黎世聯(lián)邦理工學(xué)院CV實(shí)驗(yàn)室
鏈接:https://arxiv.org/abs/1912.11844
注:在Cityscapes數(shù)據(jù)集上(2048 x 1024),速度可達(dá)80-1000 FPS!性能優(yōu)于DVSN、ICNet等網(wǎng)絡(luò)
【5】基于循環(huán)一致性和特征對齊的移動語義分割的無監(jiān)督域自適應(yīng)
《Unsupervised Domain Adaptation for Mobile Semantic Segmentation based on Cycle Consistency and Feature Alignment》
時間:20200115
作者團(tuán)隊(duì):帕多瓦大學(xué)
鏈接:https://arxiv.org/abs/2001.04692
注:性能優(yōu)于CycleGAN和CyCADA等網(wǎng)絡(luò)
【6】GPSNet:Gated路徑選擇性的語義分割網(wǎng)絡(luò)
《Gated Path Selection Network for Semantic Segmentation》
時間:20200122
作者團(tuán)隊(duì):北航&牛津大學(xué)&清華大學(xué)等
鏈接:https://arxiv.org/abs/2001.06819
注:性能優(yōu)于OCNet、PSPNet和PSANet等網(wǎng)絡(luò)
GPSNet
【7】DADA:用于語義分割的深度感知域適應(yīng)
《DADA: Depth-Aware Domain Adaptation in Semantic Segmentation》
時間:20190426(ICCV 2019)
作者團(tuán)隊(duì):法雷奧 AI Lab&索邦大學(xué)
鏈接:https://arxiv.org/abs/1904.01886
代碼:https://github.com/valeoai/DADA
注1:本文之前CVer推送過,但那時還沒有開源,前不久DADA 剛剛開源,所以再次分享給大家,值得關(guān)注和學(xué)習(xí)!
注2:性能優(yōu)于AdvEnt、AdaptPatch和CLAN等網(wǎng)絡(luò),表現(xiàn)SOTA,現(xiàn)已開源!
【8】CAG-UDA:用于無監(jiān)督域自適應(yīng)語義分割的類別Anchor引導(dǎo)
《Category Anchor-Guided Unsupervised Domain Adaptation for Semantic Segmentation》
時間:20191017
作者團(tuán)隊(duì):悉尼大學(xué)&騰訊優(yōu)圖
鏈接:https://arxiv.org/pdf/1910.13049.pdf
代碼:https://github.com/RogerZhangzz/CAG_UDA
注1:本文之前CVer推送過,但那時還沒有開源,前不久 CAG-UDA 剛剛開源,所以再次分享給大家,值得關(guān)注和學(xué)習(xí)!
注2:性能優(yōu)于DCAN、CLAN和BLF等網(wǎng)絡(luò)
CAG-UDA
【9】面向航空遙感圖像的Open-Set語義分割網(wǎng)絡(luò)
《Towards Open-Set Semantic Segmentation of Aerial Images》
時間:20200129
作者團(tuán)隊(duì):斯特林大學(xué)等
鏈接:https://arxiv.org/abs/2001.10063
注:據(jù)作者稱這是第一篇研究應(yīng)用于遙感圖像的open set場景的語義分割技術(shù)論文(open set是指存在未知類)
為了方便下載,我已經(jīng)將上述論文打包,在?CVer公眾號?后臺回復(fù):20200220?即可獲得打包鏈接。
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)在線手冊深度學(xué)習(xí)在線手冊AI基礎(chǔ)下載(pdf更新到25集)備注:加入本站微信群或者qq群,請回復(fù)“加群”獲取一折本站知識星球優(yōu)惠券,請回復(fù)“知識星球”喜歡文章,點(diǎn)個在看
總結(jié)
以上是生活随笔為你收集整理的一文看尽9篇语义分割最新论文(GPSNet/Graph-FCN/HMANet等)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 一些在NLP的面试中提问频率非常高的问题
- 下一篇: 一文看尽10篇目标检测最新论文(Meta