javascript
GAN的目标函数(F散度;KL散度;JS散度;Pearson \chi^2 散度;IPM;Wasserstein距离;MMD)
GAN的主要目標(biāo)就是去最小化真實數(shù)據(jù)分布PdataP_{data}Pdata?與生成數(shù)據(jù)分布PgP_gPg?之間的距離,怎么樣度量分布之間的距離對于GAN極其關(guān)鍵.
標(biāo)準(zhǔn)的對抗網(wǎng)絡(luò)通過JSD來度量兩分布之間的差異,然而這種度量方式存在很多缺陷.
針對這些問題,研究人員最近幾年提出了不同的距離度量方式和散度度量方式來代替JSD,以提高GAN的性能.
這節(jié)我們將討論如何基于這些距離或者散度的度量方式來對分布PdataP_{data}Pdata?與PG(x;θ)P_G(x;θ)PG?(x;θ)之間的差異進(jìn)行準(zhǔn)確地度量.目前常見的度量方式分為以下幾類,如表2所示.
F散度(F-divergence)
F散度是用一種特殊的凸函數(shù)f來度量兩分布之間差異的一種方法,基于兩分布之間的比值,可以將兩分布之間的F?divergenceF-divergenceF?divergence定義為如下的形式:
 Df(Pdata?∥Pg)=∫Pg(x)f(Pdata?(x)Pg(x))dxD_{f}\left(P_{\text {data }} \| P_{g}\right)=\int P_{g}(x) f\left(\frac{P_{\text {data }}(x)}{P_{g}(x)}\right) \mathrmze8trgl8bvbq x Df?(Pdata??∥Pg?)=∫Pg?(x)f(Pg?(x)Pdata??(x)?)dx
 在采用上式對兩分布之間的差異進(jìn)行度量時,必須滿足這樣的前提條件:f(1)=0f(1)=0f(1)=0并且fff是一個凸函數(shù),即當(dāng)兩個分布是一致的時候,其比值為1,而相應(yīng)的散度應(yīng)該為0.由于任意滿足f(1)=0f(1)=0f(1)=0條件的凸函數(shù),都可以衍生一種GAN的目標(biāo)函數(shù),這樣就在很大程度上拓展了標(biāo)準(zhǔn)GAN.
但實際操作過程中,并不能準(zhǔn)確地求出數(shù)據(jù)分布的函數(shù)形式,所以應(yīng)該采用一種可以計算的方法將式(4)給估計出來.f?GANf-GANf?GAN采用了變分估計的方法來估計模型的參數(shù),首先求出凸函數(shù)fff(也叫作生成器函數(shù))的共軛函數(shù)f?f^*f?,也稱為FenchelFenchelFenchel共軛,其形式如下式所示:
 f?(t)=sup?u∈dom?f{ut?f(u)}f^{*}(t)=\sup _{u \in \operatorname{dom} f}\{u t-f(u)\} f?(t)=u∈domfsup?{ut?f(u)}
 由于FenchelFenchelFenchel共軛是可逆,也可以將fff表示為
 f(u)=sup?u∈dom?f?{ut?f?(t)}f(u)=\sup _{u \in \operatorname{dom} f^{*}}\left\{u t-f^{*}(t)\right\} f(u)=u∈domf?sup?{ut?f?(t)}
 將式(3)代入到式(1)中可以得到f的下界,如下式(4)所示:
 Df(pdata?∥pg)=∫χpg(x)sup?i∈dom?f?(tpdata?(x)pg(x)?f?(t))dx(4)≥sup?T∈T(∫χT(x)pdata?(x)?f?(T(x))pg(x))dx(5)=sup?T∈T(Ex~pdata?[T(x)]?Ex~pg[f?(T(x))])(6)\begin{array}{r} D_{f}\left(p_{\text {data }} \| p_{g}\right)=\int_{\chi} p_{g}(x) \sup _{i \in \operatorname{dom} f^{*}}\left(t \frac{p_{\text {data }}(x)}{p_{g}(x)}-f^{*}(t)\right) \mathrmze8trgl8bvbq x (4)\\ \geq \quad \sup _{T \in \mathrm{T}}\left(\int_{\chi} T(x) p_{\text {data }}(x)-f^{*}(T(x)) p_{g}(x)\right) \mathrmze8trgl8bvbq x(5) \\ \quad=\sup _{T \in \mathrm{T}}\left(E_{x \sim p_{\text {data }}}[T(x)]-E_{x \sim p_{g}}\left[f^{*}(T(x))\right]\right)(6) \end{array} Df?(pdata??∥pg?)=∫χ?pg?(x)supi∈domf??(tpg?(x)pdata??(x)??f?(t))dx(4)≥supT∈T?(∫χ?T(x)pdata??(x)?f?(T(x))pg?(x))dx(5)=supT∈T?(Ex~pdata???[T(x)]?Ex~pg??[f?(T(x))])(6)?
 其中f?f^*f?是凸函數(shù)fff的FenchelFenchelFenchel共軛函數(shù),domf?domf^*domf?是f?f^*f?的域.因為最大值的和大于其和的最大值,所以式(4)可以變?yōu)槭?5);在公式中TTT表示滿足χ→Rχ→Rχ→R的一類函數(shù),因此可以用T(x)T(x)T(x)來代替公式中的ttt;而且T(x)T(x)T(x)可以用下式(7)來表示:
 T(x)=a(Dw(x)),a(?):R→dom?f?Dw(x):χ→R\begin{gathered} T(x)=a\left(D_{w}(x)\right), a(\cdot): \mathbb{R} \rightarrow \operatorname{dom} f^{*} \\ D_{w}(x): \chi \rightarrow \mathbb{R} \end{gathered} T(x)=a(Dw?(x)),a(?):R→domf?Dw?(x):χ→R?
 在式(10)中,可以將T(x)T(x)T(x)看成是帶有一個特別激活函數(shù)a(?)a(·)a(?)的鑒別器;用不同的生成器函數(shù)f以及與其對應(yīng)的激活函數(shù)a(?)a(·)a(?)可以導(dǎo)出很多GAN的變體.與標(biāo)準(zhǔn)GAN一樣,f?GANf-GANf?GAN首先最大化等式(6)關(guān)于T(x)T(x)T(x)的下界,然后最小化近似的散度,使得生成器學(xué)到的分布更加類似于真實數(shù)據(jù)的分布.
KL散度(KLD)、逆KL散度、JSD以及一些其他的散度都可以由帶有特殊生成器函數(shù)fff的f?GANf-GANf?GAN架構(gòu)衍生出來.
在這些衍生出來的GAN的變體中,LSGAN[29]的性能是最好的一個;
但是在標(biāo)準(zhǔn)的GAN中,當(dāng)生成器學(xué)到的分布PgP_gPg?和真實的數(shù)據(jù)分布PdataP_{data}Pdata?之間沒有交集的時候,即PgP_gPg?距離PdataP_{data}Pdata?還是很遠(yuǎn)時,他仍會以很高的置信度將生成器生成的樣本判別為假,此時就會導(dǎo)致目標(biāo)函數(shù)值是一個常量,反向傳播的時候梯度為0,最終導(dǎo)致梯度消失.
基于這些問題LSGAN采用最小二乘損失函數(shù)來代替原始GAN中的交叉熵-損失函數(shù).最小二乘損失函數(shù)相較于容易飽和的交叉熵-損失函數(shù)有一個優(yōu)勢,即只在某一個點(diǎn)是飽和的.最小二乘損失函數(shù)不僅騙過鑒別器,而且還讓生成器把距離決策邊界比較遠(yuǎn)的樣本拉向決策邊界.類似于等式(8),
 min?Gmax?DV(G,D)=min?Gmax?DEx~pdata?[log?D(x)]+Ez~pz[log?(1?D(G(z)))](8)\begin{aligned} \min _{G} \max _{D} V(G, D)=& \min _{G} \max _{D} E_{x \sim p_{\text {data }}}[\log D(x)]+\\ & E_{z \sim p_{z}}[\log (1-D(G(z)))](8) \end{aligned} Gmin?Dmax?V(G,D)=?Gmin?Dmax?Ex~pdata???[logD(x)]+Ez~pz??[log(1?D(G(z)))](8)?
 LSGAN[30]的損失函數(shù)如下式【9】所示:
 Equ.(9)min?DJ(D)=min?D0.5×Ex~pdats?[D(x)?a]2+0.5×Ez~pz[D(G(z))?b]2min?GJ(D)=min?G0.5×Ez~pz[D(G(z))?c]2\begin{aligned} Equ.(9)\\ \min _{D} J(D)=& \min _{D} 0.5 \times E_{x \sim p_{\text {dats }}}[D(x)-a]^{2}+\\ & 0.5 \times E_{z \sim p_{z}}[D(G(z))-b]^{2} \\ \min _{G} J(D)=& \min _{G} 0.5 \times E_{z \sim p_{z}}[D(G(z))-c]^{2} \end{aligned} Equ.(9)Dmin?J(D)=Gmin?J(D)=?Dmin?0.5×Ex~pdats???[D(x)?a]2+0.5×Ez~pz??[D(G(z))?b]2Gmin?0.5×Ez~pz??[D(G(z))?c]2?
 其中,D(x)D(x)D(x)表示鑒別器的輸出、G(z)G(z)G(z)表示生成器生成的樣本,zzz表示服從某一分布的隨機(jī)向量.常數(shù)a、ba、ba、b分別是表示生成圖像和真實圖像的標(biāo)記;ccc是生成器為了讓鑒別器判定生成的圖像是真實數(shù)據(jù)而設(shè)定的一個閾值.因此,與標(biāo)準(zhǔn)GAN目標(biāo)函數(shù)不同的一點(diǎn)是,最小二乘損失函數(shù)不僅僅對真實樣本和生成的樣本進(jìn)行分類,而且還迫使生成的樣本數(shù)據(jù)更加靠近真實數(shù)據(jù)的分布.我們總結(jié)LSGANLSGANLSGAN的優(yōu)勢如下,首先是穩(wěn)定了訓(xùn)練,解決了標(biāo)準(zhǔn)GAN在訓(xùn)練過程中容易飽和的問題;其次是通過懲罰遠(yuǎn)離鑒別器的決策邊界的生成樣本來改善生成圖像的質(zhì)量.
Integral Probability Metric (IPM)
IPM是與散度相似的一種、用來對兩個分布之間的差異進(jìn)行度量的一種方式,并且在IPM中定義了屬于某一個特殊函數(shù)類F的評價函數(shù)fff.在一個空間中χ?Rd\chi \subset \mathcal{R}^ze8trgl8bvbqχ?Rd,P(χ)P(χ)P(χ)是定義在χχχ上的概率測度,基于這個測度,PgP_gPg?和PdataP_{data}Pdata?之間的IPM可以被定義為下邊的形式:
 Mf∈F(Pdala,Pg)=sup?f∈F∣Epdata(x)[f]?Epg(x)[f]∣\mathcal{M}_{f \in \mathcal{F}}\left(P_{\mathrm{dala}}, P_{g}\right)=\sup _{f \in \mathcal{F}}\left|E_{p_{\mathrm{data}}(x)}[f]-E_{p_{g(x)}}[f]\right| Mf∈F?(Pdala?,Pg?)=f∈Fsup?∣∣?Epdata?(x)?[f]?Epg(x)??[f]∣∣?
 在上式中,基于評價函數(shù)f的度量標(biāo)準(zhǔn)IPM決定了PgP_gPg?和PdataP_{data}Pdata?之間的差異的大小.
在這里評價函數(shù)可以用一個被ω(x)ω(x)ω(x)參數(shù)化的神經(jīng)網(wǎng)絡(luò)和激活函數(shù)vvv的乘積來表示.如下式所示:
 Fv,w={f(x)=?v,w(x)?∣v∈Rm,w(x):χ→Rm}\mathcal{F}_{v, w}=\left\{f(x)=\langle v, w(x)\rangle \mid v \in R^{m}, w(x): \chi \rightarrow R^{m}\right\} Fv,w?={f(x)=?v,w(x)?∣v∈Rm,w(x):χ→Rm}
 類似于F散度,基于不同的評價函數(shù)就有IPM的不同的變體,典型的性能比較好的變體有Wasserstein distance metric[31]和Maximum Mean Discrepancy[37]。接下來,分別對這兩種距離度量方法進(jìn)行詳細(xì)地分析.
Wasserstein距離 / Earth-mover (EM)距離
首先對Wasserstein距離進(jìn)行詳細(xì)地討論,WGAN[31]采用最優(yōu)傳輸理論中Wasserstein距離(也稱作Earth-mover (EM)距離)來度量兩個分布PgP_gPg?和PdataP_{data}Pdata?之間的差異.并且Wasserstein距離被定義為如下式所示的形式:
 W(Pg,Pdata?)=inf?γ~Π(pg,Pdata?)E(x,y)~γ[∥x?y∥]W\left(P_{g}, P_{\text {data }}\right)=\inf _{\gamma \sim \Pi\left(p_{g}, P_{\text {data }}\right)} E_{(x, y) \sim \gamma}[\|x-y\|] W(Pg?,Pdata??)=γ~Π(pg?,Pdata??)inf?E(x,y)~γ?[∥x?y∥]
 其中∏(Pg,Pdata)∏(P_g,P_{data})∏(Pg?,Pdata?)是PgP_gPg?和PdataP_{data}Pdata?組合起來的所有可能的聯(lián)合分布的集合.對于每一個聯(lián)合分布γγγ而言,可以從聯(lián)合分布中采樣,從而得到一個真實的樣本yyy和一個生成的樣本xxx,并且求出這兩個樣本之間的距離‖x?y‖‖x-y‖‖x?y‖,然后計算在聯(lián)合分布γγγ下的期望值E(x,y)[‖x?y‖]E(x,y)[‖x-y‖]E(x,y)[‖x?y‖].最后在所有可能的聯(lián)合分布中求出期望值的下界,而此下界就定義為Wasserstein距離;直觀上可以將Wasserstein距離理解為在最優(yōu)路徑規(guī)劃下的最小能量消耗.由于直接對上式進(jìn)行求解是很困難的,WGAN利用Kantorovich-Rubinstein duality的技巧將上式轉(zhuǎn)換成以下形式:
 W(Pg,Pdata?)=sup?∥f∥l<kEx~Pdata?(f(x))?Ex~Pg(f(x))W\left(P_{g}, P_{\text {data }}\right)=\sup _{\|f\|_{l}<k} E_{x \sim P_{\text {data }}}(f(x))-E_{x \sim P_{g}}(f(x)) W(Pg?,Pdata??)=∥f∥l?<ksup?Ex~Pdata???(f(x))?Ex~Pg??(f(x))
 在上式中supsupsup表示的是一個上確界,‖f‖l≤k‖f‖_l≤k‖f‖l?≤k表示的是評價函數(shù)必須滿足k利普希茨(LipschitzLipschitzLipschitz)連續(xù)性約束;
這里的LipschitzLipschitzLipschitz連續(xù)性要求指的是,對于一個連續(xù)函數(shù)fff施加一個限制,并且存在一個常數(shù)k≥0k≥0k≥0使得定義域內(nèi)的任何兩個元素x1x1x1和x2x2x2都滿足如下式:
 ∣f(x1)?f(x2)∣≤k∣x1?x2∣\left|f\left(x_{1}\right)-f\left(x_{2}\right)\right| \leq k\left|x_{1}-x_{2}\right| ∣f(x1?)?f(x2?)∣≤k∣x1??x2?∣
 上式中的kkk稱為是函數(shù)fff的LipschitzLipschitzLipschitz常數(shù),實際上該連續(xù)性約束是為了限制連續(xù)型函數(shù)最大局部變動的幅度.
上上式中的f函數(shù)可以用一個用ωωω參數(shù)化的、最后一層神經(jīng)網(wǎng)絡(luò)不用非線性激活函數(shù)的多層神經(jīng)網(wǎng)絡(luò)fwf_wfw?來實現(xiàn)(其實就是鑒別器神經(jīng)網(wǎng)絡(luò)DDD).在限制權(quán)值ωωω不超過某個范圍的條件下,使得
 L=Ex~Pdata?[f(x)]?Ex~Pg[f(x)]\mathcal{L}=E_{x \sim P_{\text {data }}}[f(x)]-E_{x \sim P_{g}}[f(x)] L=Ex~Pdata???[f(x)]?Ex~Pg??[f(x)]
 盡可能最大,此時的LLL就是近似真實分布和生成分布之間的WassersteinWassersteinWasserstein距離.
在實際實現(xiàn)的時候要注意,原始GAN的鑒別器做的是一個真假二分類的任務(wù),所以最后一層需要添加一個非線性激活函數(shù)sigmoidsigmoidsigmoid函數(shù).但是現(xiàn)在WGANWGANWGAN中的鑒別器是近似擬合Wasserstein距離,屬于回歸任務(wù),神經(jīng)網(wǎng)絡(luò)的最后一層非線性激活函數(shù)要拿掉。
我們的目標(biāo)是要去最小化LLL,因此基于上式,可以設(shè)計出WGANWGANWGAN的損失函數(shù)如下所示:
 GLoss:?Ex~pg[fw(x)]DLoss:Ex~pg[fw(x)]?Ex~pdata?[fw(x)]\mathrm{G}\ Loss: -E_{x \sim p_{g}}\left[f_{w}(x)\right]\\ \mathrm{D}\ Loss: E_{x \sim p_{g}}\left[f_{w}(x)\right]-E_{x \sim p_{\text {data }}}\left[f_{w}(x)\right] G?Loss:?Ex~pg??[fw?(x)]D?Loss:Ex~pg??[fw?(x)]?Ex~pdata???[fw?(x)]
 綜上,采用Wasserstein距離來度量生成分布PgP_gPg?和真實分布PdataP_{data}Pdata?之間差異的好處就是,當(dāng)PgP_gPg?和PdataP_{data}Pdata?之間沒有交集或者是交集很小的時候,Wasserstein距離不是一個常量,其仍然可以度量兩分布之間的差異,所以很好地緩解了梯度消失的問題.
但是在上述WGAN中,粗暴的權(quán)重裁剪會導(dǎo)致如下問題:
在對抗網(wǎng)絡(luò)中鑒別器的Loss是希望盡可能地拉大真假樣本之間的差距,然后權(quán)重裁剪的策略又獨(dú)立地限制每一個網(wǎng)絡(luò)參數(shù)的取值范圍,在這樣的情況下就是讓所有的參數(shù)走向極端,要么取最大值要么取最小值,導(dǎo)致參數(shù)值的分布很不均勻,如下圖(a)所示.
針對這個問題,學(xué)者們又用梯度懲罰項來代替WGAN中的權(quán)重裁剪的技巧,通過限制鑒別器的梯度不超過LipschitzLipschitzLipschitz常數(shù)kkk來構(gòu)造梯度懲罰項.
改進(jìn)后的損失函數(shù),如下式所示:
 L=Ex~pg[fw(x)]?Ex~pdats?[fw(x)]+λEx[∥?xfw(x)∥p?1]2\begin{aligned} \mathcal{L}=& E_{x \sim p_{g}}\left[f_{w}(x)\right]-E_{x \sim p_{\text {dats }}}\left[f_{w}(x)\right]+\\ & \lambda E_{x}\left[\left\|\nabla_{x} f_{w}(x)\right\|_{p}-1\right]^{2} \end{aligned} L=?Ex~pg??[fw?(x)]?Ex~pdats???[fw?(x)]+λEx?[∥?x?fw?(x)∥p??1]2?
 通過上圖(b),可以觀察到滿足k?Lipschitzk-Lipschitzk?Lipschitz約束的梯度懲罰使得神經(jīng)網(wǎng)絡(luò)的參數(shù)分布得更加均勻.
最大平均差異(MMD)
接下來對最大平均差異(MMD)做深入的討論.最大平均差異被提出時最先被用于雙樣本檢測問題,用于判斷兩個分布P和Q是否一樣,其基本思想是:對于所有以分布生成的樣本空間為輸入的函數(shù)f,如果兩個分布P和Q生成足夠多的樣本,并且這些樣本在函數(shù)fff下值的均值相等,那么就可以認(rèn)為這兩個分布是同一個分布.
首先介紹一下希爾伯特空間HHH,希爾伯特空間是一個完備的線性空間,同時也是一個內(nèi)積空間.核kkk被定義為k:χ×χ→R,k(y,x)=k(x,y)k:χ×χ→R,k(y,x)=k(x,y)k:χ×χ→R,k(y,x)=k(x,y).對于任意一個給定的正定核k(?,?)k(·,·)k(?,?),都存在一個唯一的函數(shù)空間f:χ→Rf:χ→Rf:χ→R,由于其滿足再生性,因此也叫做再生核希爾伯特空間(Reproducing Kernel Hilbert Space,RKHSRKHSRKHS).再生性指:HkH_kHk?是一個希爾伯特空間,并且其滿足以下特性:
 ?f,k(?,x)?Hk=f(x),?x∈χ,?f∈Hk\langle f, k(\cdot, x)\rangle_{H_{k}}=f(x), \forall x \in \chi, \quad \forall f \in H_{k} ?f,k(?,x)?Hk??=f(x),?x∈χ,?f∈Hk?
 假設(shè)有一個滿足P分布規(guī)律的數(shù)據(jù)集Xs=[x1s,?,xns]X^{s}=\left[x_{1}^{s}, \cdots, x_{n}^{s}\right]Xs=[x1s?,?,xns?]和一個滿足Q分布的數(shù)據(jù)集Xl=[x1l,?,xnl]X^{l}=\left[x_{1}^{l}, \cdots, x_{n}^{l}\right]Xl=[x1l?,?,xnl?];并且存在一個RKHSRKHSRKHS和一個核函數(shù)Φ(?):X→HΦ(·):X→HΦ(?):X→H可以將原始數(shù)據(jù)XXX從原始空間映射到再生核希爾伯特空間.因此MMDMMDMMD可以被表示為如下式:
 M(Xs,Xl)=∥1n∑i=1n?(xis)?1m∑i?1m?(x1l)∥M\left(X_{s}, X_{l}\right)=\left\|\frac{1}{n} \sum_{i=1}^{n} \phi\left(x_{i}^{s}\right)-\frac{1}{m} \sum_{i-1}^{m} \phi\left(x_{1}^{l}\right)\right\| M(Xs?,Xl?)=∥∥∥∥∥?n1?i=1∑n??(xis?)?m1?i?1∑m??(x1l?)∥∥∥∥∥?
 通過上式可以看出,其原理就是對每一個真實樣本和生成的樣本進(jìn)行投影并求和、利用和的大小對PgP_gPg?和PdataP_{data}Pdata?之間的差異進(jìn)行度量.
類似于IPM,MMD在參數(shù)空間是處處連續(xù)、可微的,同時在IPM的框架下MMD也可以被理解,此時其函數(shù)類是F=HkF=H_kF=Hk?
IPM度量標(biāo)準(zhǔn)和F散度度量標(biāo)準(zhǔn)的比較
對于F散度來講,在式(1)中被定義的、帶有凸函數(shù)fff的fff散度函數(shù)族,當(dāng)數(shù)據(jù)空間中的維數(shù)ddd逐漸增加的時候,fff散度是很難被估計的,并且兩個分布的支撐集是沒對齊的,又會導(dǎo)致散度的值趨向于無窮大.盡管等式(6)推導(dǎo)出了等式(1)的變分下界,但是在實踐中不能保證變分下界對真實散度的收緊性,從而會導(dǎo)致不正確、甚至是有偏的估計.
Sriperumbudur等人研究表明在f?divergencef-divergencef?divergence族和IPMIPMIPM族之間唯一的交集就是TotalVariationDistanceTotal\ Variation\ DistanceTotal?Variation?Distance;
因此IPM族也沒有繼承f?divergencef-divergencef?divergence族的缺點(diǎn);他們也證明了在使用獨(dú)立同分布樣本的情況下,IPM估計器是在收斂性方面更加一致.
在實踐應(yīng)用中,更多采用IPM度量標(biāo)準(zhǔn)來對真實分布和生成分布之間的差異進(jìn)行度量.與F散度度量標(biāo)準(zhǔn)相比,IPM度量標(biāo)準(zhǔn)有以下優(yōu)點(diǎn):
(1) IPM度量標(biāo)準(zhǔn)不會受到數(shù)據(jù)高維的影響;
(2) 始終可以反映兩分布之間的真實距離,即使是兩分布的支撐集沒有相應(yīng)的交集,IPM也不會發(fā)散.
看懂對我是不大可能了,會用就行😢
來源:
陳佛計,朱楓,吳清瀟,郝穎明,王恩德,崔蕓閣.生成對抗網(wǎng)絡(luò)及其在圖像生成中的應(yīng)用研究綜述[J].計算機(jī)學(xué)報,2021,44(02):347-369.
總結(jié)
以上是生活随笔為你收集整理的GAN的目标函数(F散度;KL散度;JS散度;Pearson \chi^2 散度;IPM;Wasserstein距离;MMD)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: 为什么国内动漫制作多为3D动漫?3DMA
 - 下一篇: GAN的理论基础之KL散度与JS散度