DeepLearning based on PaddlePaddle系列二
Github相關(guān)地址
AIStudio地址
常見(jiàn)的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)
全連接網(wǎng)絡(luò)結(jié)構(gòu)
??全連接(Fully Connected, FC)網(wǎng)絡(luò)結(jié)構(gòu)是最基本的神經(jīng)網(wǎng)絡(luò)/深度神經(jīng)網(wǎng)絡(luò)層,全連接層的每一個(gè)節(jié)點(diǎn)都與上一層的所有節(jié)點(diǎn)相連。全連接層在早期主要用于對(duì)提取的特征進(jìn)行分類,然而由于全連接層所有的輸出與輸入都是相連的,一般全連接層的參數(shù)是最多的,這需要相當(dāng)數(shù)量的存儲(chǔ)空間和計(jì)算空間。參數(shù)的冗余問(wèn)題使單純的FC組成的常規(guī)神經(jīng)網(wǎng)絡(luò)很少會(huì)被應(yīng)用于較為復(fù)雜的場(chǎng)景中。常規(guī)神經(jīng)網(wǎng)絡(luò)一般用于依賴所有特征的簡(jiǎn)單場(chǎng)景,比如房?jī)r(jià)預(yù)測(cè)模型和在線廣告推薦模型使用的都是相對(duì)標(biāo)準(zhǔn)的全連接神經(jīng)網(wǎng)絡(luò)。
卷積神經(jīng)網(wǎng)絡(luò)
??卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種專門(mén)用來(lái)處理具有類似網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),如圖像數(shù)據(jù)(可以看作二維的像素網(wǎng)格)。與FC不同的地方在于,CNN的上下層神經(jīng)元并不能都直接連接,而是通過(guò) “卷積核” 作為中介,通過(guò)“核”的共享大大減少了隱藏層的參數(shù)。簡(jiǎn)單的CNN是一系列層,并且每個(gè)層都通過(guò)一個(gè)可微函數(shù)將一個(gè)量轉(zhuǎn)化為另一個(gè)量,這些層主要包括卷積層( Convolutional Layer )、池化層( Pooling Layer )和全連接層( FC Layer )。卷積網(wǎng)絡(luò)在諸多應(yīng)用領(lǐng)域,尤其是大型圖像處理的場(chǎng)景都取得了很好的應(yīng)用效果。
??如圖展示了CNN的結(jié)構(gòu)形式,一個(gè)神經(jīng)元以三位排列組成卷積神經(jīng)網(wǎng)路 (寬度、高度、深度),如其中一個(gè)層所展示的,CNN的每一層都將3D的輸入量轉(zhuǎn)化為3D的輸出量。
循環(huán)神經(jīng)網(wǎng)絡(luò)
??循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)也是常用的深度學(xué)習(xí)模型之一,就如CNN是專門(mén)用于處理網(wǎng)絡(luò)化數(shù)據(jù)(例如圖像)的神經(jīng)網(wǎng)絡(luò),RNN是一種 **專門(mén)處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)** 。如音頻中含有時(shí)間成分,因此音頻可以被表示為一維時(shí)間序列;語(yǔ)言中的單詞都是逐個(gè)出現(xiàn)的,因此語(yǔ)言的表示方式也是序列數(shù)據(jù)。RNN在機(jī)器翻譯、語(yǔ)音識(shí)別等領(lǐng)域均有非常好的表現(xiàn)。總結(jié)
以上是生活随笔為你收集整理的DeepLearning based on PaddlePaddle系列二的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: DeepLearning based o
- 下一篇: PaddlePaddle实现波士顿房价预