神经网络算法-论证单层感知器的局限性
神經(jīng)網(wǎng)絡(luò)算法-論證單層感知器的局限性
今天課上學(xué)習(xí)了一個思路 將真值表轉(zhuǎn)換到平面直角坐標(biāo)系中 來論證線性可分還是不可分,挺有意思記錄一下。
簡單感知器模型實際上仍然是MP模型的結(jié)構(gòu),但是它通過采用監(jiān)督學(xué)習(xí)來逐步增強模式劃分的能力,達(dá)到所謂學(xué)習(xí)的目的。
感知器處理單元對n個輸入進(jìn)行加權(quán)和操作v即:vi=f(∑i=0Nwixi?θ)v_{i}=f(\sum_{i=0}^Nw_{i}x_{i}-\theta)vi?=f(∑i=0N?wi?xi??θ)
 
其中,Wi為第i個輸入到處理單元的連接權(quán)值,f為階躍函數(shù)。
感知器在形式上與MP模型差不多,它們之間的區(qū)別在于神經(jīng)元間連接權(quán)的變化。感知器的連接權(quán)定義為可變的,這樣感知器就被賦予了學(xué)習(xí)的特性。
利用簡單感知器可以實現(xiàn)邏輯代數(shù)中的一些運算。
| 0 | 0 | 0 | 0 | 1 | 
| 0 | 1 | 0 | 1 | 1 | 
| 1 | 0 | 0 | 1 | 0 | 
| 1 | 1 | 1 | 1 | 0 | 
Y=f(w1x1+w2x2-θ)
(1)“與”運算。當(dāng)取w1=w2=1,θ=1.5時,上式完成邏輯“與”的運算。
(2)“或”運算, 當(dāng)取wl=w2=1,θ=0.5時,上式完成邏輯“或”的運算。
(3)“非”運算,當(dāng)取wl=-1,w2=0,θ=-1時.完成邏輯“非”的運算。
與許多代數(shù)方程一樣,上式中不等式具有一定的幾何意義。
對于一個兩輸入的簡單感知器,每個輸入取值為0和1,如上面結(jié)出的邏輯運算,所有輸入樣本有四個,記為(x1,x2):(0,0),(0,1),(1,0),(1,1),構(gòu)成了樣本輸入空間。例如,在二維平面上,對于“或”運算,各個樣本的分布如下圖所示。
 
 直線1 *x1+1 *x2-0.5=0將二維平面分為兩部分,上部為激發(fā)區(qū)(y,=1,用★表示),下部為抑制區(qū)(y=0,用☆表示)。
簡單感知器引入的學(xué)習(xí)算法稱之為誤差學(xué)習(xí)算法。該算法是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中的一個重要算法,并已被廣泛應(yīng)用。
現(xiàn)在來論證一下單層感知器的局限性——僅對線性可分問題具有分類能力:
異或邏輯的真值表:
| 0 | 0 | 0 | 
| 0 | 1 | 1 | 
| 1 | 0 | 1 | 
| 1 | 1 | 0 | 
將他們標(biāo)在平面坐標(biāo)系中可發(fā)現(xiàn),任何直線也不能把兩類樣本分開。
 
 如果兩類樣本可以用直線、平面或者超平面分開,稱為線性可分,否則為線性不可分。
 所以說要克服單層感知器這一局限性
就需要在輸入層與輸出層之間引入隱層作為輸入模式的內(nèi)部表示。
總結(jié)
以上是生活随笔為你收集整理的神经网络算法-论证单层感知器的局限性的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 容量耦合系数模型_期刊在线 | 基于AL
- 下一篇: 宝塔php扩展fil_宝塔面板安装Red
