我用“丧尸生成器”给爱豆们换了妆:效果太鬼畜
萬(wàn)圣節(jié)要來(lái)了!
兩千多年前,凱爾特人相信,嚴(yán)寒的第一天,故人的亡魂會(huì)回到故居地在活人身上找尋圣靈,借此再生,這是人死后獲得重生的唯一希望。
而活人則懼怕死人的靈魂來(lái)奪生,于是在10月31日這一天人們熄調(diào)火爐,把自己打扮成「妖魔鬼怪」把魂靈嚇走。
后來(lái),歐洲基督教會(huì)便把11月1日定為“萬(wàn)圣節(jié)”,并一直延續(xù)到了今天。
不過,如今萬(wàn)圣節(jié)已經(jīng)變成了人們娛樂、惡搞的節(jié)日,人們尤其熱衷于制造詭異的面部妝效捉摸朋友。
但通常一個(gè)令人驚恐的“喪尸妝”要花費(fèi)十幾個(gè)小時(shí),多少有些讓人頭疼。
那么,有什么方法可以一鍵生成驚悚的喪尸妝呢?
現(xiàn)在距離萬(wàn)圣節(jié)還有3天,但小編已經(jīng)在國(guó)外社交網(wǎng)絡(luò)上發(fā)現(xiàn)一大波喪尸照,我們來(lái)一起感受下~
emmm,妝效過于專業(yè)了。
難道新一季《行尸走肉》又要開播了?還換了演員?
還有兩位總統(tǒng)候選人約瑟夫·拜登和唐納德·特朗普,恐怖又覺得有點(diǎn)搞笑......
看到這里,有朋友可能會(huì)想到這些圖片應(yīng)該是來(lái)自網(wǎng)友們的惡搞。
是的,這些真·喪尸全部出自一款『?jiǎn)适善鳌唬恍栎斎胍粡堈掌涂梢粤⒖躺梢粡垎适眨見y效感人......
不知道大家還記不記得,之前小編曾報(bào)道過一款換臉網(wǎng)站Toonify,這個(gè)網(wǎng)站可以把人臉切換成動(dòng)漫臉,效果非常逼真,上線當(dāng)天訪問量就超過了25萬(wàn)。它效果是這樣的:
大眼萌臉,妥妥地定制化漫畫臉,正是這款變臉網(wǎng)站,激發(fā)了Josh Brown Kramer的靈感。
既然一張照片可以秒變迪士尼公主,是不是也可以讓它秒變喪尸呢?
因此,這位程序員小哥借鑒了Toonify的核心技術(shù),開發(fā)了這款『?jiǎn)适善鳌唬覟榱朔奖愦蠹沂褂茫沧龀闪司W(wǎng)站形式,可免費(fèi)使用。
聽到這里是不是迫不及待想要體驗(yàn)一下了?
該網(wǎng)站名為Make Me A Zombie。操作簡(jiǎn)單,出圖很快。https://makemeazombie.com/
只需要點(diǎn)擊鏈接,選擇Browse輸入一張人臉圖片,點(diǎn)擊藍(lán)色圖標(biāo)即可。
小編沒忍住用愛豆們的照片先體驗(yàn)了一番,結(jié)果.....
不過,馬老板這張,感覺特效化妝師都畫不出這樣的妝效。
言歸正傳,經(jīng)過幾張圖片測(cè)試,小編也發(fā)現(xiàn)兩個(gè)問題。一是生成器只針對(duì)面部進(jìn)行識(shí)別和處理,如果輸入全身圖,系統(tǒng)會(huì)自動(dòng)刪除多余的部分,只生成一個(gè)人臉照。
二是輸入人臉照的生成效果比全身照更好,而且圖片越清晰效果也就越好。
有了這個(gè)“喪尸生成器”,萬(wàn)圣節(jié)不愁惡搞別人的“鬼照”了[奸笑]
Kramer介紹稱,該模型的開發(fā)與 Toonify 并無(wú)關(guān)聯(lián),但使用的是相同的技術(shù)棧,即StyleGAN2.
StyleGAN是當(dāng)前最先進(jìn)的高分辨率圖像合成方法,由英偉達(dá)在2018年首次推出。該方法可生成逼真的人臉圖像,其在FFHQ(Flicker-Faces-HQ)數(shù)據(jù)集上的表現(xiàn),遠(yuǎn)超DCGAN和ConditionalGAN。
但StyleGAN也存在明顯的缺陷,即易出現(xiàn)斑點(diǎn)似的偽影(Artifacts)。
去年12月,英偉達(dá)在StyleGAN原有架構(gòu)基礎(chǔ)上進(jìn)行了改進(jìn),并于CVPR 2020大會(huì)上推出升級(jí)版StyleGAN2。
除了消除偽影外,StyleGAN2的一項(xiàng)重大更新是風(fēng)格遷移(Style Transfer)技術(shù)。
該研究團(tuán)隊(duì)在論文《分析和改善StyleGAN的圖像質(zhì)量》中指出,“總體而言,我們改進(jìn)的模型在現(xiàn)有的分布質(zhì)量指標(biāo)和感知的圖像質(zhì)量方面都重新定義了無(wú)條件圖像建模的最新技術(shù)。”
簡(jiǎn)單來(lái)說(shuō),該模型可以使用遷移學(xué)習(xí)技術(shù)生成各種風(fēng)格的肖像,突破了圖像合成的風(fēng)格限制。我們現(xiàn)在通常看到的人臉動(dòng)漫化,或者動(dòng)漫臉真人化本質(zhì)都是利用的這張技術(shù)。
例如:這是利用StyleGAN2在五種動(dòng)漫和動(dòng)物角色之間的無(wú)縫切換。
Kramer利用這項(xiàng)技術(shù)創(chuàng)建了一個(gè)混合型 StyleGAN2 模型。其中,該模型前層為人類圖像生成器,后層為喪尸生成器。在數(shù)據(jù)集方面,人類圖像生成器采用的是高質(zhì)量的人臉數(shù)據(jù)集FFHQ,它包含70,000張PNG圖像,分辨率達(dá)1024x1024;僵尸生成器的訓(xùn)練數(shù)據(jù)是一組包含300張萬(wàn)圣節(jié)僵尸裝扮的人的圖像,主要來(lái)自Pinterest和Google,并對(duì)其進(jìn)行了手動(dòng)檢測(cè)刪除了非僵尸圖像。
最后,在借鑒《StyleGAN2 Distillation for Feed-forward Image Manipulation》論文后,Kramer轉(zhuǎn)存了50000 個(gè)圖像對(duì)(分別來(lái)自人類生成器和喪尸生成器),并使用 Pix2PixHD 學(xué)習(xí)圖像對(duì)之間的映射。
此外,Kramer也強(qiáng)調(diào)其與Toonify有兩點(diǎn)明顯的不同:
我通過“crappify”的方法來(lái)調(diào)整圖像大小,并壓縮偽影。
我們采用的混合模型不同。我的模型更強(qiáng)調(diào)原始圖像的形狀和方向,以及僵尸圖像的紋理和卡通化,而Toonify并不是。
值得注意的是,關(guān)于僵尸生成器,Kramer從去年開始就有做過嘗試。當(dāng)時(shí)利用的是CycleGAN模型,但采用的數(shù)據(jù)集是一樣的。起初,Kramer想研發(fā)一半是人像一半是僵尸的生成器。他將數(shù)百個(gè)示例分為兩類,分別學(xué)習(xí)帶有SVM的超平面,以確定潛在空間中的“僵尸”方向。接著再根據(jù)輸入的人臉生成特定的“僵尸”,并以此作為 Pix2Pix 數(shù)據(jù)的基礎(chǔ)。
但這一過程遇到了兩個(gè)問題:一是雖然在生成的人類身上效果很好,但在真實(shí)圖像上只能產(chǎn)生中等水平的結(jié)果;二是僵尸和種族之間性質(zhì)不同,我不想創(chuàng)造一個(gè)改變種族生成器。
不過,相比之下,基于StyleGAN2架構(gòu)的模型也有明顯的優(yōu)勢(shì)。比如該模型能夠在2080Ti顯卡上訓(xùn)練1024 x 1024大小的模型,效率高,而且經(jīng)過預(yù)訓(xùn)練后的輸出效果也比較好,在這兩點(diǎn)上CycleGAN2和Pix2PixHD相對(duì)差之。
總結(jié)
以上是生活随笔為你收集整理的我用“丧尸生成器”给爱豆们换了妆:效果太鬼畜的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: AMD 2020年第三季度财报公布:净利
- 下一篇: 秋葵苗怎么做好吃呢?