神经网络学习(一)
這一系列的文章,了解各大唱片《神經(jīng)網(wǎng)絡(luò)設(shè)計》這本書的收益和總結(jié)。
第一部分介紹了三網(wǎng)融合:
- 感知
- Hamming
- Hopfield
感知機(jī)
採用對稱硬極限傳輸函數(shù)hardlims的單層感知機(jī)
兩輸入感知機(jī),w11 = -1, w22 = 1例如以下
a = hardlims(n) = hardlims([-1 1]p + b)Hamming
Hamming網(wǎng)絡(luò)的目標(biāo)時判定哪個標(biāo)準(zhǔn)向量最接近輸入向量。
判定結(jié)果由遞歸層的輸出表示。
- 前饋層
前饋層用于實現(xiàn)每一個標(biāo)準(zhǔn)模式和輸入模式之間的相關(guān)檢測或求內(nèi)積。
為了使得前饋層能夠完畢其功能,能夠用標(biāo)準(zhǔn)模式設(shè)置其權(quán)值矩陣的行,該權(quán)值矩陣用連接矩陣W1表示。
之所以稱該網(wǎng)絡(luò)為Hmming網(wǎng),是由于在前饋層中具有最大輸出的神經(jīng)元正好相應(yīng)于輸入模式Hamming距離近期的標(biāo)準(zhǔn)模式。
- 遞歸層
該層的神經(jīng)元用前饋層的輸出進(jìn)行初始化,此輸出指出標(biāo)準(zhǔn)模式和輸入向量之間的關(guān)系。
描寫敘述競爭的等式為
a2(0) = a1 (初始條件) a2(t+1) = poslin(W2a2(t)) (迭代)Hopfield網(wǎng)絡(luò)
這個網(wǎng)絡(luò)利用輸入向量對網(wǎng)絡(luò)中的神經(jīng)元進(jìn)行初始化,然后網(wǎng)絡(luò)不斷迭代直至收斂。
假設(shè)網(wǎng)絡(luò)執(zhí)行正確,那么終于的輸出結(jié)果將是一個標(biāo)準(zhǔn)的向量。
描寫敘述等式為
a(0) = p a(t + 1) = satlins(Wa(t) + b)結(jié)束語
個人對三種網(wǎng)絡(luò)的理解例如以下
- 感知機(jī)是bp前饋網(wǎng)絡(luò)的一個單元。并不涉及到反饋。通過反饋機(jī)制能夠從數(shù)據(jù)中學(xué)習(xí)得到相關(guān)的參數(shù)。
適合處理那些線性可分的問題。
- Hamming計算出已存儲的標(biāo)準(zhǔn)模式和輸入模式之間的測度距離,通過競爭決定哪一個神經(jīng)元表示的標(biāo)準(zhǔn)模式最接近于輸入模式。
- Hopfield主要用于聯(lián)想存儲中,其存儲的數(shù)據(jù)能由相關(guān)的輸入數(shù)據(jù)回顧出來。而無需用一個地址對其訪問。即讓數(shù)據(jù)收斂到我希望的值(聯(lián)想存儲),而無需實際的分配地址空間去存儲該值。
版權(quán)聲明:本文博主原創(chuàng)文章,博客,未經(jīng)同意不得轉(zhuǎn)載。
總結(jié)
- 上一篇: Linux中文件权限的一些知识
- 下一篇: Java语法糖1:可变长度参数以及for