BeautyGAN图片的高精度美颜
美顏:https://github.com/Honlan/BeautyGAN,還需要按照md下載模型就可使用
提高精度:https://github.com/TencentARC/GFPGAN,還需要按照md下載一些包就可使用
美顏:
1.使用網(wǎng)絡(luò):cycleGAN循環(huán)生成對抗網(wǎng)絡(luò)
2.傳統(tǒng)特性:利用生成器網(wǎng)絡(luò)G生成目標(biāo)圖,并用判別器D判斷生成的圖像是否為真,它會對生成器所產(chǎn)生的假目標(biāo)做懲罰并對真目標(biāo)進(jìn)行獎勵
3.生成器:左邊的生成模型G,首先素顏圖像和參考圖像經(jīng)過不同的兩組卷積提取特征,然后concatenate到一起,輸入residual block中,接著兩組反卷積將輸出的feature map上采樣,結(jié)果是將原來的素顏圖像“上妝”,而參考圖像“卸妝”。右邊的生成模型G與左邊結(jié)構(gòu)相同實(shí)現(xiàn)復(fù)原。
4.判別器:上下兩個判別模型D分別判斷是否為真實(shí)的帶妝圖像或者素顏圖像。
5.損失函數(shù)包含:
①GAN的損失函數(shù)(也就是兩個判別器的損失之和)
生成器網(wǎng)絡(luò):分別卷積 + Concatenate(連接)+ 卷積全連接層 + 分別反卷積
判別器:卷積
損失函數(shù):D()好像是判別器的輸出
②cycle consistency loss(將生成的結(jié)果再次放回生成器,然后與輸入圖像做像素間的重構(gòu)損失)
讓重構(gòu)回去的圖像和最開始輸入的圖像要盡可能的一樣,也就是經(jīng)過兩個生成器后(經(jīng)歷了一個cycleGAN后)生成的圖片與原圖片的distance最小
③perceptual loss(將同一人的妝前妝后圖一起丟到VGGnet中,然后通過對輸出的語義向量做損失從而保證身份的一致性)
用的VGG16,VGG模型學(xué)習(xí)鏈接如下:
https://blog.csdn.net/qq_42012782/article/details/123222042
④makeup loss(將面部先做語義分割,分成底妝,口紅和眼影,然后對每個區(qū)域做顏色損失)
語義分割 + 直方圖匹配
語義分割用的是FCN(全卷積神經(jīng)網(wǎng)絡(luò))https://blog.csdn.net/wrk226/article/details/123255122?spm=1001.2014.3001.5502
直方圖匹配好像也是上面的方法
6.參考文獻(xiàn):BeautyGAN: Instance-level Facial Makeup Transfer with DeepGenerative Adversarial Network
7.參考博客:
https://blog.csdn.net/qq_30209907/article/details/94023802
https://blog.csdn.net/wrk226/article/details/123256887(這個博客提供的連接里,有論文附件,附件中有G和D的網(wǎng)絡(luò)結(jié)構(gòu)表)
8.參考github,這里有訓(xùn)練好的可以直接用的模型,但沒有訓(xùn)練模型:
https://github.com/Honlan/BeautyGAN
提高精度:
看不懂哇,前面的區(qū)域以后再來探索吧
總結(jié)
以上是生活随笔為你收集整理的BeautyGAN图片的高精度美颜的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 题朋友云南骑马照【明书、圣契】
- 下一篇: php百度优化,百度技术沙龙第 24 期