esrgan_港中文-商汤联合实验室:ECCV2018 PIRM-SR 超分辨率比赛冠军:ESRGAN(已开源)...
Author:Amusi
Date:2019-02-09
微信公眾號:CVer
原文鏈接:香港中文大學-商湯聯合實驗室:ECCV2018 PIRM-SR 超分辨率比賽冠軍:ESRGAN(論文+開源代碼)
前戲
前幾天分享了很多論文,各種SOTA。比如(點擊可訪問):
- 中科院和京東AI研究院提出:改進SRN人臉檢測算法,目前業界最強!
- 德克薩斯大學提出:One-stage目標檢測最強算法 ExtremeNet
- 商湯等提出:統一多目標跟蹤框架
本文分享一篇ECCV 2018 Workshop:PIRM2018-SR competition (region 3) 超分辨率比賽的冠軍方案,代碼已經開源
正文
《ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks》
arXiv: https://arxiv.org/abs/1809.00219
github:https://github.com/xinntao/ESRGAN
作者團隊:香港中文大學-商湯聯合實驗室等
注:2018年09月18日出爐的paper
Abstract:超分辨率生成對抗網絡(SRGAN)是一項開創性的工作,能夠在單一圖像超分辨率下生成逼真的紋理。However, the hallucinated details are often accompanied with unpleasant artifacts.。為了進一步提高視覺質量,我們徹底研究了SRGAN的三個關鍵組成部分 - 網絡架構,對抗性損失和感知損失,并改進它們中的每一個以獲得增強型SRGAN(ESRGAN)。特別是,我們在沒有批量標準化的情況下引入剩余殘差密集塊(RRDB)作為基本網絡構建單元。此外,我們借用 relativistic GAN的觀點,讓鑒別器預測相對真實性而不是絕對值。最后,我們通過使用激活前的特征來改善感知損失,這可以提供更強的亮度一致性和紋理恢復的監督。受益于這些改進,所提出的ESRGAN實現了始終如一的更好的視覺質量,具有比SRGAN更逼真和自然的紋理,并在PIRM2018-SR挑戰賽中獲得第一名。
提出的方法
A.Network Architecture:: 1) remove all BN layers; 2) replace the original basic block with the proposed Residual-in-Residual Dense Block (RRDB)
B.Relativistic Discriminator
C.Perceptual Loss
D.Network Interpolation
實驗結果
開源代碼
下面兩個鏈接都是開源代碼,后者是basic
https://github.com/xinntao/ESRGAN
https://github.com/xinntao/BasicSR
注:最近的CVPR 2019 NTIRE Workshop 已經開始了~
喜歡這篇文章,記得點個贊哈
創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎總結
以上是生活随笔為你收集整理的esrgan_港中文-商汤联合实验室:ECCV2018 PIRM-SR 超分辨率比赛冠军:ESRGAN(已开源)...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: spark更改分区_用于小文件的spar
- 下一篇: linux ppp漏洞,Linux下pp