卷积神经网络CNN要点:CNN结构、采样层、全连接层、Zero-padding、激活函数及Dropout
CNN結(jié)構(gòu):
卷積層:特征提取;
采樣層:特征選擇;
全連接層:根據(jù)特征進(jìn)行分類(lèi)。
采樣層(pooling):
max-pooling:克服卷積層權(quán)值參數(shù)誤差;
average-pooling:克服卷積核鄰域大小受限。
全連接層(Fully Connected Layer):
全連接層(FC) 可以看為和上一個(gè)采樣層(pooling) 中存在一個(gè)卷積操作。如:上一個(gè)采樣層維數(shù)為3*3*5,而全連接層維數(shù)為1*4096。那么中間可以看做存在一個(gè)3*3*5*4096的卷積層進(jìn)行了卷積操作。
這一步操作相當(dāng)于把前面提取出的分布式特征映射到樣本標(biāo)記空間。即忽略特征之間的相對(duì)位置信息(空間結(jié)構(gòu)特性),把所有特征整合到一起輸出為一個(gè)值。
FC 的層數(shù)越多,越能表達(dá)非線性問(wèn)題。但由于參數(shù)量大,會(huì)降低學(xué)習(xí)效率。因此,新提出的網(wǎng)絡(luò)模型如 ResNet 和 GoogLeNet 采用全局平均池化(global average pooling,GAP)取代 FC 來(lái)融合學(xué)習(xí)到的特征,這樣得到的網(wǎng)絡(luò)通常具有更好的預(yù)測(cè)性能。
Zero-padding作用:
激活函數(shù):
在CNN中激活函數(shù)的引入,為了解決以下幾個(gè)問(wèn)題:
因此激活函數(shù)的引入有如下作用:
Dropout要點(diǎn):
Dropout_rate一般設(shè)置為0.3~0.5之間。
在訓(xùn)練時(shí)要對(duì)沒(méi)有被Dropout的神經(jīng)元權(quán)值做一個(gè)rescale:
rescale_rate=11?dropout_raterescale\_rate = \frac{1}{1-dropout\_rate}rescale_rate=1?dropout_rate1?
因此訓(xùn)練過(guò)程中前向傳播公式可以寫(xiě)為:
r(l)=Bernoulli(p)r^{(l)} = Bernoulli(p) r(l)=Bernoulli(p)
y~(l)=r(l)?y(l)\tilde{y}^{(l)} = r^{(l)}\cdot y^{(l)}y~?(l)=r(l)?y(l)
Zi(l+1)=Wil+1?y~(l)+bil+1Z_{i}^{(l+1)} = W_{i}^{l+1} \cdot \tilde{y}^{(l)} + b_{i}^{l+1}Zi(l+1)?=Wil+1??y~?(l)+bil+1?
yi(l+1)=f(zi(l+1))y_{i}^{(l+1)} = f(z_{i}^{(l+1)})yi(l+1)?=f(zi(l+1)?)
總結(jié)
以上是生活随笔為你收集整理的卷积神经网络CNN要点:CNN结构、采样层、全连接层、Zero-padding、激活函数及Dropout的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 为提升性能 松下宣布推迟特斯拉4680电
- 下一篇: 欧盟仍在调查苹果 Apple Pay 反