卷积神经网络, Convolutional Neural Networks , CNN
生活随笔
收集整理的這篇文章主要介紹了
卷积神经网络, Convolutional Neural Networks , CNN
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
1,簡介
CNN是deep learning在圖像處理領(lǐng)域的一個應(yīng)用
由具有可學(xué)習(xí)的權(quán)重和偏置常量(biases)的神經(jīng)元組成,是deeplearning在圖像處理的一個應(yīng)用
2,卷積層(Convolutional layer)
每層卷積層由若干卷積單元組成,每個卷積單元(神經(jīng)元)的參數(shù)都是通過反向傳播算法優(yōu)化得到的。卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征。
在CNN的一個卷積層中,通常包含若干個特征平面(featureMap),即相同深度的深度切片,每個特征平面由一些矩形排列的的神經(jīng)元組成,同一特征平面的神經(jīng)元共享權(quán)值,這里共享的權(quán)值就是卷積核(即參數(shù)w和b)
2.1局部感知(Local Connectivity)
一般認為人對外界的認知是從局部到全局的,而圖像的空間聯(lián)系也是局部的像素聯(lián)系較為緊密,而距離較遠的像素相關(guān)性則較弱。因而,每個神經(jīng)元其實沒有必要對全局圖像進行感知,只需要對局部進行感知,然后在更高層將局部的信息綜合起來就得到了全局的信息
每個隱含層單元僅僅連接輸入圖像的一小片相鄰區(qū)域,
每個隱含層單元連接的輸入?yún)^(qū)域大小叫r神經(jīng)元的感受野(receptive field)
一個輸出單元的大小有以下三個量控制:depth, stride 和 zero-padding。
卷積層的參數(shù)包含一系列過濾器(filter),每個過濾器訓(xùn)練一個深度,有幾個過濾器輸出單元就具有多少深度。
步幅(stride):它控制在同一深度的相鄰兩個隱含單元,與他們相連接的輸入?yún)^(qū)域的距離
我們可以通過在輸入單元周圍補零來改變輸入單元整體大小,從而控制輸出單元的空間大小。
2.2參數(shù)共享(Parameter Sharing)
圖像的一部分的統(tǒng)計特性與其他部分是一樣的。這也意味著我們在這一部分學(xué)習(xí)的特征也能用在另一部分上
把同一深度的平面叫做深度切片(depth slice)即特征平面,那么同一個切片共享同一組權(quán)重和偏置,
共享權(quán)值(卷積核)帶來的直接好處是減少網(wǎng)絡(luò)各層之間的連接,同時又降低了過擬合的風(fēng)險。
如果應(yīng)用參數(shù)共享的話,實際上每一層計算的操作就是輸入層和權(quán)重的卷積!這也就是卷積神經(jīng)網(wǎng)絡(luò)名字的由來。
2.3多核卷積:
一個卷積核操作只能得到一部分特征可能獲取不到全部特征,這么一來我們就引入了多核卷積。用每個卷積核(參數(shù)w和b)來學(xué)習(xí)不同的特征(每個卷積核學(xué)習(xí)到不同的權(quán)重)來提取原圖特征
3,激活函數(shù)層
這一層神經(jīng)的激活函數(shù)(Activation function)
因為線性模型的表達能力不夠,用來加入非線性因素
4,池化層(Poolinglayer)
4.1?子采樣,池化(pooling),下采樣(downsamples),子采樣可以看作一種特殊的卷積過程。
4.2 卷積和子采樣大大簡化了模型復(fù)雜度,減少了模型的參數(shù)
通常在卷積層之后會得到維度很大的特征,將特征平面切成幾個區(qū)域,取其最大值或平均值,得到新的、維度較小的特征。
對不同位置的特征進行聚合統(tǒng)計,可以計算圖像一個區(qū)域上的某個特定特征的平均值 (或最大值)
4.3 池化操作對特征切片(深度切片)獨立并將保存深度大小不變。
4.4?如果池化層的輸入單元大小不是二的整數(shù)倍,一般采取邊緣補零(zero-padding)的方式補成2的倍數(shù),然后再池化
4.5最大池化(Max Pooling)。取4個點的最大值。這是最常用的池化方法。?
* 均值池化(Mean Pooling)。取4個點的均值。?
* 高斯池化。借鑒高斯模糊的方法。?
* 可訓(xùn)練池化。訓(xùn)練函數(shù) ff ,接受4個點為輸入,出入1個點。
6總結(jié)
卷積層、池化層和激活函數(shù)層等操作是將原始數(shù)據(jù)映射到隱層特征空間
全連接層則起到將學(xué)到的“分布式特征表示”(都是局部的特征)映射到樣本標(biāo)記空間的作用
CNN是deep learning在圖像處理領(lǐng)域的一個應(yīng)用
由具有可學(xué)習(xí)的權(quán)重和偏置常量(biases)的神經(jīng)元組成,是deeplearning在圖像處理的一個應(yīng)用
2,卷積層(Convolutional layer)
每層卷積層由若干卷積單元組成,每個卷積單元(神經(jīng)元)的參數(shù)都是通過反向傳播算法優(yōu)化得到的。卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征。
在CNN的一個卷積層中,通常包含若干個特征平面(featureMap),即相同深度的深度切片,每個特征平面由一些矩形排列的的神經(jīng)元組成,同一特征平面的神經(jīng)元共享權(quán)值,這里共享的權(quán)值就是卷積核(即參數(shù)w和b)
2.1局部感知(Local Connectivity)
一般認為人對外界的認知是從局部到全局的,而圖像的空間聯(lián)系也是局部的像素聯(lián)系較為緊密,而距離較遠的像素相關(guān)性則較弱。因而,每個神經(jīng)元其實沒有必要對全局圖像進行感知,只需要對局部進行感知,然后在更高層將局部的信息綜合起來就得到了全局的信息
每個隱含層單元僅僅連接輸入圖像的一小片相鄰區(qū)域,
每個隱含層單元連接的輸入?yún)^(qū)域大小叫r神經(jīng)元的感受野(receptive field)
一個輸出單元的大小有以下三個量控制:depth, stride 和 zero-padding。
卷積層的參數(shù)包含一系列過濾器(filter),每個過濾器訓(xùn)練一個深度,有幾個過濾器輸出單元就具有多少深度。
步幅(stride):它控制在同一深度的相鄰兩個隱含單元,與他們相連接的輸入?yún)^(qū)域的距離
我們可以通過在輸入單元周圍補零來改變輸入單元整體大小,從而控制輸出單元的空間大小。
2.2參數(shù)共享(Parameter Sharing)
圖像的一部分的統(tǒng)計特性與其他部分是一樣的。這也意味著我們在這一部分學(xué)習(xí)的特征也能用在另一部分上
把同一深度的平面叫做深度切片(depth slice)即特征平面,那么同一個切片共享同一組權(quán)重和偏置,
共享權(quán)值(卷積核)帶來的直接好處是減少網(wǎng)絡(luò)各層之間的連接,同時又降低了過擬合的風(fēng)險。
如果應(yīng)用參數(shù)共享的話,實際上每一層計算的操作就是輸入層和權(quán)重的卷積!這也就是卷積神經(jīng)網(wǎng)絡(luò)名字的由來。
2.3多核卷積:
一個卷積核操作只能得到一部分特征可能獲取不到全部特征,這么一來我們就引入了多核卷積。用每個卷積核(參數(shù)w和b)來學(xué)習(xí)不同的特征(每個卷積核學(xué)習(xí)到不同的權(quán)重)來提取原圖特征
3,激活函數(shù)層
這一層神經(jīng)的激活函數(shù)(Activation function)
因為線性模型的表達能力不夠,用來加入非線性因素
4,池化層(Poolinglayer)
4.1?子采樣,池化(pooling),下采樣(downsamples),子采樣可以看作一種特殊的卷積過程。
4.2 卷積和子采樣大大簡化了模型復(fù)雜度,減少了模型的參數(shù)
通常在卷積層之后會得到維度很大的特征,將特征平面切成幾個區(qū)域,取其最大值或平均值,得到新的、維度較小的特征。
對不同位置的特征進行聚合統(tǒng)計,可以計算圖像一個區(qū)域上的某個特定特征的平均值 (或最大值)
4.3 池化操作對特征切片(深度切片)獨立并將保存深度大小不變。
4.4?如果池化層的輸入單元大小不是二的整數(shù)倍,一般采取邊緣補零(zero-padding)的方式補成2的倍數(shù),然后再池化
4.5最大池化(Max Pooling)。取4個點的最大值。這是最常用的池化方法。?
* 均值池化(Mean Pooling)。取4個點的均值。?
* 高斯池化。借鑒高斯模糊的方法。?
* 可訓(xùn)練池化。訓(xùn)練函數(shù) ff ,接受4個點為輸入,出入1個點。
5 全連接層( Fully-Connected layer),
在整個卷積神經(jīng)網(wǎng)絡(luò)中起到“分類器”的作用
把所有局部特征結(jié)合變成全局特征,用來計算最后每一類的得分。
全連接層和卷積層可以相互轉(zhuǎn)換6總結(jié)
卷積層、池化層和激活函數(shù)層等操作是將原始數(shù)據(jù)映射到隱層特征空間
全連接層則起到將學(xué)到的“分布式特征表示”(都是局部的特征)映射到樣本標(biāo)記空間的作用
總結(jié)
以上是生活随笔為你收集整理的卷积神经网络, Convolutional Neural Networks , CNN的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 牛X,试用了下GitHub上22万Sta
- 下一篇: 2020 年热门编程语言的发展方向