数据挖掘人工神经网络,神经网络的数据处理
1、BP人工神經網絡
人工神經網絡(artificialneuralnetwork,ANN)指由大量與自然神經系統相類似的神經元聯結而成的網絡,是用工程技術手段模擬生物網絡結構特征和功能特征的一類人工系統。神經網絡不但具有處理數值數據的一般計算能力,而且還具有處理知識的思維、學習、記憶能力,它采用類似于“黑箱”的方法,通過學習和記憶,找出輸入、輸出變量之間的非線性關系(映射),在執行問題和求解時,將所獲取的數據輸入到已經訓練好的網絡,依據網絡學到的知識進行網絡推理,得出合理的答案與結果。
巖土工程中的許多問題是非線性問題,變量之間的關系十分復雜,很難用確切的數學、力學模型來描述。工程現場實測數據的代表性與測點的位置、范圍和手段有關,有時很難滿足傳統統計方法所要求的統計條件和規律,加之巖土工程信息的復雜性和不確定性,因而運用神經網絡方法實現巖土工程問題的求解是合適的。
BP神經網絡模型是誤差反向傳播(BackPagation)網絡模型的簡稱。它由輸入層、隱含層和輸出層組成。網絡的學習過程就是對網絡各層節點間連接權逐步修改的過程,這一過程由兩部分組成:正向傳播和反向傳播。正向傳播是輸入模式從輸入層經隱含層處理傳向輸出層;反向傳播是均方誤差信息從輸出層向輸入層傳播,將誤差信號沿原來的連接通路返回,通過修改各層神經元的權值,使得誤差信號最小。
BP神經網絡模型在建立及應用過程中,主要存在的不足和建議有以下四個方面:
(1)對于神經網絡,數據愈多,網絡的訓練效果愈佳,也更能反映實際。但在實際操作中,由于條件的限制很難選取大量的樣本值進行訓練,樣本數量偏少。
(2)BP網絡模型其計算速度較慢、無法表達預測量與其相關參數之間親疏關系。
(3)以定量數據為基礎建立模型,若能收集到充分資料,以定性指標(如基坑降水方式、基坑支護模式、施工工況等)和一些易獲取的定量指標作為輸入層,以評價等級作為輸出層,這樣建立的BP網絡模型將更準確全面。
(4)BP人工神經網絡系統具有非線性、智能的特點。較好地考慮了定性描述和定量計算、精確邏輯分析和非確定性推理等方面,但由于樣本不同,影響要素的權重不同,以及在根據先驗知識和前人的經驗總結對定性參數進行量化處理,必然會影響評價的客觀性和準確性。因此,在實際評價中只有根據不同的基坑施工工況、不同的周邊環境條件,應不同用戶的需求,選擇不同的分析指標,才能滿足復雜工況條件下地質環境評價的要求,取得較好的應用效果。
谷歌人工智能寫作項目:小發貓
2、人工神經網絡可以用來優化一堆離散數據嗎?詳細詢問見內
人工神經網絡也是可以處理離散問題的,就是輸出端對于每個值屬于哪個類別進行對應,輸入值也是如此,先進行數值化人工神經網絡數據收集。
至于能否得到輸出值在50附近,跟你采集的數據樣本有關,這關系到網絡的復雜性,層數,數據點之間的相關性,一般來說通過計算智能的方法就是讓其自己學習然后具備處理能力,而不是人為讓其朝某個數據偏移。
3、人工神經網絡的知識表示形式和推理機制
神經網絡有多種分類方式,例如,按網絡性能可分為連續型與離散型網絡,確定型與隨機型網絡:按網絡拓撲結構可分為前向神經網絡與反饋神經網絡。本章土要簡介前向神經網絡、反饋神經網絡和自組織特征映射神經網絡。
前向神經網絡是數據挖掘中廣為應用的一種網絡,其原理或算法也是很多神經網絡模型的基礎。徑向基函數神經網絡就是一種前向型神經網絡。Hopfield神經網絡是反饋網絡的代表。Hvpfi}ld網絡的原型是一個非線性動力學系統,目前,已經在聯想記憶和優化計算中得到成功應用。
基本特征
非線性關系是自然界的普遍特性。大腦的智慧就是一種非線性現象。人工神經元處于激活或抑制二種不同的狀態,這種行為在數學上表現為一種非線性關系。具有閾值的神經元構成的網絡具有更好的性能,可以提高容錯性和存儲容量。
一個神經網絡通常由多個神經元廣泛連接而成。一個系統的整體行為不僅取決于單個神經元的特征,而且可能主要由單元之間的相互作用、相互連接所決定。通過單元之間的大量連接模擬大腦的非局限性。聯想記憶是非局限性的典型例子。
以上內容參考:
4、 人工神經網絡分類方法
從20世紀80年代末期,人工神經網絡方法開始應用于遙感圖像的自動分類。目前,在遙感圖像的自動分類方面,應用和研究比較多的人工神經網絡方法主要有以下幾種:
(1)BP(Back Propagation)神經網絡,這是一種應用較廣泛的前饋式網絡,屬于有監督分類算法,它將先驗知識融于網絡學習之中,加以最大限度地利用,適應性好,在類別數少的情況下能夠得到相當高的精度,但是其網絡的學習主要采用誤差修正算法,識別對象種類多時,隨著網絡規模的擴大,需要的計算過程較長,收斂緩慢而不穩定,且識別精度難以達到要求。
(2)Hopfield神經網絡。屬于反饋式網絡。主要采用Hebb規則進行學習,一般情況下計算的收斂速度較快。這種網絡是美國物理學家J.J.Hopfield于1982年首先提出的,它主要用于模擬生物神經網絡的記憶機理。Hopfield神經網絡狀態的演變過程是一個非線性動力學系統,可以用一組非線性差分方程來描述。系統的穩定性可用所謂的“能量函數”進行分析,在滿足一定條件下,某種“能量函數”的能量在網絡運行過程中不斷地減少,最后趨于穩定的平衡狀態。Hopfield網絡的演變過程是一種計算聯想記憶或求解優化問題的過程。
(3)Kohonen網絡。這是一種由芬蘭赫爾辛基大學神經網絡專家Kohonen(1981)提出的自組織神經網絡,其采用了無導師信息的學習算法,這種學習算法僅根據輸入數據的屬性而調整權值,進而完成向環境學習、自動分類和聚類等任務。其最大的優點是最終的各個相鄰聚類之間是有相似關系的,即使識別時把樣本映射到了一個錯誤的節點,它也傾向于被識別成同一個因素或者一個相近的因素,這就十分接近人的識別特性。
5、AI是否可以被精神分析?人工智能運行的基礎原理到底是什么?
AI不可以被精神分析,人工智能的工作原理是,計算機使用傳感器(或人工輸入),將收集有關一個場景的事實。計算機將把這些信息與已經存儲的信息進行比較,以確定它的含義。計算機將根據它所收集的信息計算出各種可能的行動,然后預測哪種行動是最好的。計算機只能解決程序允許其解決的問題,不具備一般意義上的分析能力。
精神分析作為一種心理治療方法的有效性是有爭議的。關于人工智能也有很多爭議。把這些堆在自己身上,你可能會發現負面的消極因素。你可以先試著找一個拉康精神分析的AI。同時人工智能也可以被不明真相的人分析為人類。如果人工智能在這個過程中讓很大比例的人認為它是人類,你就可以認為人工智能已經通過了圖靈測試。你可以看看“谷歌工程師聲稱 AI 已經有意識”的這個故事,它在2022年曾熱過一陣子。
人工智能的演進是有一定的邏輯關系的,從認知開始,通過邏輯訓練和深度學習,演變成神經網絡的自我學習過程,這個過程非常漫長,從PC的誕生到現在的移動互聯網。有了半個世紀的時間,有了建模的算法,基于通信技術的發展,我們進入了第四代通信和半導體的GPU時代,這種現象才得以高速發展,我們知道百度發布了1版本。 2019年將實現0次無人駕駛。
人工智能是研究人類智能行動的規律,構建具有某種程度智能的人工系統,研究如何使計算機完成以前需要人類智能的任務,即研究如何利用計算機硬件和軟件來模擬人類智能行為的基本理論、方法和技術。人工智能是用機器模擬人思考和判斷的過程,一般人工智能包含兩個部分:算法和訓練數據,通過算法和訓練數據,得到一套思維和判斷方式,可以作用于現場數據的判決,這是人工智能的一般內容。
6、深度學習中什么是人工神經網絡?
人工神經網絡(Artificial Neural Network,即ANN )是從信息處理角度對人腦神經元網絡進行抽象,是20世紀80年代以來人工智能領域興起的研究熱點,其本質是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成,在模式識別、智能機器人、自動控制、生物、醫學、經濟等領域已成功地解決了許多現代計算機難以解決的實際問題,表現出了良好的智能特性。
人工神經網絡是由大量處理單元互聯組成的非線性、自適應信息處理系統,它是在現代 神經科學研究成果的基礎上提出的,試圖通過模擬大腦神經網絡處理、記憶信息的方式進行信息處理。人工神經網絡具有四個基本特征:
(1)非線性– 非線性關系是自然界的普遍特性,人工神經元處于激活或抑制二種不同的狀態,這種行為在數學上表現為一種非線性
人工神經網絡
關系。具有閾值的神經元構成的網絡具有更好的性能,可以提高容錯性和存儲容量。
(2)非局限性– 一個 神經網絡通常由多個神經元廣泛連接而成。一個系統的整體行為不僅取決于單個神經元的特征,而且可能主要由單元之間的相互作用、相互連接所決定。通過單元之間的大量連接模擬大腦的非局限性。聯想 記憶是非局限性的典型例子。
(3)非常定性 –人工神經網絡具有自適應、自組織、自學習能力。神經網絡不但處理的信息可以有各種變化,而且在處理信息的同時,非線性動力系統本身也在不斷變化。經常采用迭代過程描寫動力系統的演化過程。
(4)非凸性–一個系統的演化方向,在一定條件下將取決于某個特定的狀態函數。例如 能量函數,它的極值相應于系統比較穩定的狀態。非凸性是指這種函數有多個極值,故系統具有多個較穩定的平衡態,這將導致系統演化的多樣性。
人工神經網絡中,神經元處理單元可表示不同的對象,例如特征、字母、概念,或者一些有意義的抽象模式。網絡中處理單元的類型分為三類:輸入單元、輸出單元和隱單元。輸入單元接受外部 世界的信號與數據;輸出單元實現系統處理結果的輸出;隱單元是處在輸入和輸出單元之間,不能
人工神經網絡
由系統外部觀察的單元。神經元間的連接權值反映了單元間的連接強度,信息的表示和處理體現在網絡處理單元的連接關系中。
總結:人工神經網絡是一種非程序化、 適應性、大腦風格的信息處理 ,其本質是通過網絡的變換和動力學行為得到一種并行分布式的信息處理功能,并在不同程度和層次上模仿人腦神經系統的信息處理功能。
7、神經網絡算法的人工神經網絡
人工神經網絡(Artificial Neural Networks,ANN)系統是 20 世紀 40 年代后出現的。它是由眾多的神經元可調的連接權值連接而成,具有大規模并行處理、分布式信 息存儲、良好的自組織自學習能力等特點。BP(Back Propagation)算法又稱為誤差 反向傳播算法,是人工神經網絡中的一種監督式的學習算法。BP 神經網絡算法在理 論上可以逼近任意函數,基本的結構由非線性變化單元組成,具有很強的非線性映射能力。而且網絡的中間層數、各層的處理單元數及網絡的學習系數等參數可根據具體情況設定,靈活性很大,在優化、信號處理與模式識別、智能控制、故障診斷等許 多領域都有著廣泛的應用前景。 人工神經元的研究起源于腦神經元學說。19世紀末,在生物、生理學領域,Waldeger等人創建了神經元學說。人們認識到復雜的神經系統是由數目繁多的神經元組合而成。大腦皮層包括有100億個以上的神經元,每立方毫米約有數萬個,它們互相聯結形成神經網絡,通過感覺器官和神經接受來自身體內外的各種信息,傳遞至中樞神經系統內,經過對信息的分析和綜合,再通過運動神經發出控制信息,以此來實現機體與內外環境的聯系,協調全身的各種機能活動。
神經元也和其他類型的細胞一樣,包括有細胞膜、細胞質和細胞核。但是神經細胞的形態比較特殊,具有許多突起,因此又分為細胞體、軸突和樹突三部分。細胞體內有細胞核,突起的作用是傳遞信息。樹突是作為引入輸入信號的突起,而軸突是作為輸出端的突起,它只有一個。
樹突是細胞體的延伸部分,它由細胞體發出后逐漸變細,全長各部位都可與其他神經元的軸突末梢相互聯系,形成所謂“突觸”。在突觸處兩神經元并未連通,它只是發生信息傳遞功能的結合部,聯系界面之間間隙約為(15~50)×10米。突觸可分為興奮性與抑制性兩種類型,它相應于神經元之間耦合的極性。每個神經元的突觸數目正常,最高可達10個。各神經元之間的連接強度和極性有所不同,并且都可調整、基于這一特性,人腦具有存儲信息的功能。利用大量神經元相互聯接組成人工神經網絡可顯示出人的大腦的某些特征。
人工神經網絡是由大量的簡單基本元件——神經元相互聯接而成的自適應非線性動態系統。每個神經元的結構和功能比較簡單,但大量神經元組合產生的系統行為卻非常復雜。
人工神經網絡反映了人腦功能的若干基本特性,但并非生物系統的逼真描述,只是某種模仿、簡化和抽象。
與數字計算機比較,人工神經網絡在構成原理和功能特點等方面更加接近人腦,它不是按給定的程序一步一步地執行運算,而是能夠自身適應環境、總結規律、完成某種運算、識別或過程控制。
人工神經網絡首先要以一定的學習準則進行學習,然后才能工作。現以人工神經網絡對于寫“A”、“B”兩個字母的識別為例進行說明,規定當“A”輸入網絡時,應該輸出“1”,而當輸入為“B”時,輸出為“0”。
所以網絡學習的準則應該是:如果網絡作出錯誤的的判決,則通過網絡的學習,應使得網絡減少下次犯同樣錯誤的可能性。首先,給網絡的各連接權值賦予(0,1)區間內的隨機值,將“A”所對應的圖象模式輸入給網絡,網絡將輸入模式加權求和、與門限比較、再進行非線性運算,得到網絡的輸出。在此情況下,網絡輸出為“1”和“0”的概率各為50%,也就是說是完全隨機的。這時如果輸出為“1”(結果正確),則使連接權值增大,以便使網絡再次遇到“A”模式輸入時,仍然能作出正確的判斷。
如果輸出為“0”(即結果錯誤),則把網絡連接權值朝著減小綜合輸入加權值的方向調整,其目的在于使網絡下次再遇到“A”模式輸入時,減小犯同樣錯誤的可能性。如此操作調整,當給網絡輪番輸入若干個手寫字母“A”、“B”后,經過網絡按以上學習方法進行若干次學習后,網絡判斷的正確率將大大提高。這說明網絡對這兩個模式的學習已經獲得了成功,它已將這兩個模式分布地記憶在網絡的各個連接權值上。當網絡再次遇到其中任何一個模式時,能夠作出迅速、準確的判斷和識別。一般說來,網絡中所含的神經元個數越多,則它能記憶、識別的模式也就越多。 (1)人類大腦有很強的自適應與自組織特性,后天的學習與訓練可以開發許多各具特色的活動功能。如盲人的聽覺和觸覺非常靈敏;聾啞人善于運用手勢;訓練有素的運動員可以表現出非凡的運動技巧等等。
普通計算機的功能取決于程序中給出的知識和能力。顯然,對于智能活動要通過總結編制程序將十分困難。
人工神經網絡也具有初步的自適應與自組織能力。在學習或訓練過程中改變突觸權重值,以適應周圍環境的要求。同一網絡因學習方式及內容不同可具有不同的功能。人工神經網絡是一個具有學習能力的系統,可以發展知識,以致超過設計者原有的知識水平。通常,它的學習訓練方式可分為兩種,一種是有監督或稱有導師的學習,這時利用給定的樣本標準進行分類或模仿;另一種是無監督學習或稱無為導師學習,這時,只規定學習方式或某些規則,則具體的學習內容隨系統所處環境 (即輸入信號情況)而異,系統可以自動發現環境特征和規律性,具有更近似人腦的功能。
(2)泛化能力
泛化能力指對沒有訓練過的樣本,有很好的預測能力和控制能力。特別是,當存在一些有噪聲的樣本,網絡具備很好的預測能力。
(3)非線性映射能力
當對系統對于設計人員來說,很透徹或者很清楚時,則一般利用數值分析,偏微分方程等數學工具建立精確的數學模型,但當對系統很復雜,或者系統未知,系統信息量很少時,建立精確的數學模型很困難時,神經網絡的非線性映射能力則表現出優勢,因為它不需要對系統進行透徹的了解,但是同時能達到輸入與輸出的映射關系,這就大大簡化設計的難度。
(4)高度并行性
并行性具有一定的爭議性。承認具有并行性理由:神經網絡是根據人的大腦而抽象出來的數學模型,由于人可以同時做一些事,所以從功能的模擬角度上看,神經網絡也應具備很強的并行性。
多少年以來,人們從醫學、生物學、生理學、哲學、信息學、計算機科學、認知學、組織協同學等各個角度企圖認識并解答上述問題。在尋找上述問題答案的研究過程中,這些年來逐漸形成了一個新興的多學科交叉技術領域,稱之為“神經網絡”。神經網絡的研究涉及眾多學科領域,這些領域互相結合、相互滲透并相互推動。不同領域的科學家又從各自學科的興趣與特色出發,提出不同的問題,從不同的角度進行研究。
下面將人工神經網絡與通用的計算機工作特點來對比一下:
若從速度的角度出發,人腦神經元之間傳遞信息的速度要遠低于計算機,前者為毫秒量級,而后者的頻率往往可達幾百兆赫。但是,由于人腦是一個大規模并行與串行組合處理系統,因而,在許多問題上可以作出快速判斷、決策和處理,其速度則遠高于串行結構的普通計算機。人工神經網絡的基本結構模仿人腦,具有并行處理特征,可以大大提高工作速度。
人腦存貯信息的特點為利用突觸效能的變化來調整存貯內容,也即信息存貯在神經元之間連接強度的分布上,存貯區與計算機區合為一體。雖然人腦每日有大量神經細胞死亡 (平均每小時約一千個),但不影響大腦的正常思維活動。
普通計算機是具有相互獨立的存貯器和運算器,知識存貯與數據運算互不相關,只有通過人編出的程序使之溝通,這種溝通不能超越程序編制者的預想。元器件的局部損壞及程序中的微小錯誤都可能引起嚴重的失常。 心理學家和認知科學家研究神經網絡的目的在于探索人腦加工、儲存和搜索信息的機制,弄清人腦功能的機理,建立人類認知過程的微結構理論。
生物學、醫學、腦科學專家試圖通過神經網絡的研究推動腦科學向定量、精確和理論化體系發展,同時也寄希望于臨床醫學的新突破;信息處理和計算機科學家研究這一問題的目的在于尋求新的途徑以解決不能解決或解決起來有極大困難的大量問題,構造更加逼近人腦功能的新一代計算機。
人工神經網絡早期的研究工作應追溯至上世紀40年代。下面以時間順序,以著名的人物或某一方面突出的研究成果為線索,簡要介紹人工神經網絡的發展歷史。
1943年,心理學家W·Mcculloch和數理邏輯學家W·Pitts在分析、總結神經元基本特性的基礎上首先提出神經元的數學模型。此模型沿用至今,并且直接影響著這一領域研究的進展。因而,他們兩人可稱為人工神經網絡研究的先驅。
1945年馮·諾依曼領導的設計小組試制成功存儲程序式電子計算機,標志著電子計算機時代的開始。1948年,他在研究工作中比較了人腦結構與存儲程序式計算機的根本區別,提出了以簡單神經元構成的再生自動機網絡結構。但是,由于指令存儲式計算機技術的發展非常迅速,迫使他放棄了神經網絡研究的新途徑,繼續投身于指令存儲式計算機技術的研究,并在此領域作出了巨大貢獻。雖然,馮·諾依曼的名字是與普通計算機聯系在一起的,但他也是人工神經網絡研究的先驅之一。
50年代末,F·Rosenblatt設計制作了“感知機”,它是一種多層的神經網絡。這項工作首次把人工神經網絡的研究從理論探討付諸工程實踐。當時,世界上許多實驗室仿效制作感知機,分別應用于文字識別、聲音識別、聲納信號識別以及學習記憶問題的研究。然而,這次人工神經網絡的研究高潮未能持續很久,許多人陸續放棄了這方面的研究工作,這是因為當時數字計算機的發展處于全盛時期,許多人誤以為數字計算機可以解決人工智能、模式識別、專家系統等方面的一切問題,使感知機的工作得不到重視;其次,當時的電子技術工藝水平比較落后,主要的元件是電子管或晶體管,利用它們制作的神經網絡體積龐大,價格昂貴,要制作在規模上與真實的神經網絡相似是完全不可能的;另外,在1968年一本名為《感知機》的著作中指出線性感知機功能是有限的,它不能解決如異感這樣的基本問題,而且多層網絡還不能找到有效的計算方法,這些論點促使大批研究人員對于人工神經網絡的前景失去信心。60年代末期,人工神經網絡的研究進入了低潮。
另外,在60年代初期,Widrow提出了自適應線性元件網絡,這是一種連續取值的線性加權求和閾值網絡。后來,在此基礎上發展了非線性多層自適應網絡。當時,這些工作雖未標出神經網絡的名稱,而實際上就是一種人工神經網絡模型。
隨著人們對感知機興趣的衰退,神經網絡的研究沉寂了相當長的時間。80年代初期,模擬與數字混合的超大規模集成電路制作技術提高到新的水平,完全付諸實用化,此外,數字計算機的發展在若干應用領域遇到困難。這一背景預示,向人工神經網絡尋求出路的時機已經成熟。美國的物理學家Hopfield于1982年和1984年在美國科學院院刊上發表了兩篇關于人工神經網絡研究的論文,引起了巨大的反響。人們重新認識到神經網絡的威力以及付諸應用的現實性。隨即,一大批學者和研究人員圍繞著 Hopfield提出的方法展開了進一步的工作,形成了80年代中期以來人工神經網絡的研究熱潮。
1985年,Ackley、Hinton和Sejnowski將模擬退火算法應用到神經網絡訓練中,提出了Boltzmann機,該算法具有逃離極值的優點,但是訓練時間需要很長。
1986年,Rumelhart、Hinton和Williams提出了多層前饋神經網絡的學習算法,即BP算法。它從證明的角度推導算法的正確性,是學習算法有理論依據。從學習算法角度上看,是一個很大的進步。
1988年,Broomhead和Lowe第一次提出了徑向基網絡:RBF網絡。
總體來說,神經網絡經歷了從高潮到低谷,再到高潮的階段,充滿曲折的過程。
8、人工神經網絡,人工神經網絡是什么意思
一、 人工神經網絡的概念
人工神經網絡(Artificial Neural Network,ANN)簡稱神經網絡(NN),是基于生物學中神經網絡的基本原理,在理解和抽象了人腦結構和外界刺激響應機制后,以網絡拓撲知識為理論基礎,模擬人腦的神經系統對復雜信息的處理機制的一種數學模型。該模型以并行分布的處理能力、高容錯性、智能化和自學習等能力為特征,將信息的加工和存儲結合在一起,以其獨特的知識表示方式和智能化的自適應學習能力,引起各學科領域的關注。它實際上是一個有大量簡單元件相互連接而成的復雜網絡,具有高度的非線性,能夠進行復雜的邏輯操作和非線性關系實現的系統。
神經網絡是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成。每個節點代表一種特定的輸出函數,稱為激活函數(activation function)。每兩個節點間的連接都代表一個對于通過該連接信號的加權值,稱之為權重(weight),神經網絡就是通過這種方式來模擬人類的記憶。網絡的輸出則取決于網絡的結構、網絡的連接方式、權重和激活函數。而網絡自身通常都是對自然界某種算法或者函數的逼近,也可能是對一種邏輯策略的表達。神經網絡的構筑理念是受到生物的神經網絡運作啟發而產生的。人工神經網絡則是把對生物神經網絡的認識與數學統計模型相結合,借助數學統計工具來實現。另一方面在人工智能學的人工感知領域,我們通過數學統計學的方法,使神經網絡能夠具備類似于人的決定能力和簡單的判斷能力,這種方法是對傳統邏輯學演算的進一步延伸。
人工神經網絡中,神經元處理單元可表示不同的對象,例如特征、字母、概念,或者一些有意義的抽象模式。網絡中處理單元的類型分為三類:輸入單元、輸出單元和隱單元。輸入單元接受外部世界的信號與數據;輸出單元實現系統處理結果的輸出;隱單元是處在輸入和輸出單元之間,不能由系統外部觀察的單元。神經元間的連接權值反映了單元間的連接強度,信息的表示和處理體現在網絡處理單元的連接關系中。人工神經網絡是一種非程序化、適應性、大腦風格的信息處理,其本質是通過網絡的變換和動力學行為得到一種并行分布式的信息處理功能,并在不同程度和層次上模仿人腦神經系統的信息處理功能。
神經網絡,是一種應用類似于大腦神經突觸連接結構進行信息處理的數學模型,它是在人類對自身大腦組織結合和思維機制的認識理解基礎之上模擬出來的,它是根植于神經科學、數學、思維科學、人工智能、統計學、物理學、計算機科學以及工程科學的一門技術。
二、 人工神經網絡的發展
神經網絡的發展有悠久的歷史。其發展過程大致可以概括為如下4個階段。
1. 第一階段----啟蒙時期
(1)、M-P神經網絡模型:20世紀40年代,人們就開始了對神經網絡的研究。1943 年,美國心理學家麥克洛奇(Mcculloch)和數學家皮茲(Pitts)提出了M-P模型,此模型比較簡單,但是意義重大。在模型中,通過把神經元看作個功能邏輯器件來實現算法,從此開創了神經網絡模型的理論研究。
(2)、Hebb規則:1949 年,心理學家赫布(Hebb)出版了《The Organization of Behavior》(行為組織學),他在書中提出了突觸連接強度可變的假設。這個假設認為學習過程最終發生在神經元之間的突觸部位,突觸的連接強度隨之突觸前后神經元的活動而變化。這一假設發展成為后來神經網絡中非常著名的Hebb規則。這一法則告訴人們,神經元之間突觸的聯系強度是可變的,這種可變性是學習和記憶的基礎。Hebb法則為構造有學習功能的神經網絡模型奠定了基礎。
(3)、感知器模型:1957 年,羅森勃拉特(Rosenblatt)以M-P 模型為基礎,提出了感知器(Perceptron)模型。感知器模型具有現代神經網絡的基本原則,并且它的結構非常符合神經生理學。這是一個具有連續可調權值矢量的MP神經網絡模型,經過訓練可以達到對一定的輸入矢量模式進行分類和識別的目的,它雖然比較簡單,卻是第一個真正意義上的神經網絡。Rosenblatt 證明了兩層感知器能夠對輸入進行分類,他還提出了帶隱層處理元件的三層感知器這一重要的研究方向。Rosenblatt 的神經網絡模型包含了一些現代神經計算機的基本原理,從而形成神經網絡方法和技術的重大突破。
(4)、ADALINE網絡模型: 1959年,美國著名工程師威德羅(B.Widrow)和霍夫(M.Hoff)等人提出了自適應線性元件(Adaptive linear element,簡稱Adaline)和Widrow-Hoff學習規則(又稱最小均方差算法或稱δ規則)的神經網絡訓練方法,并將其應用于實際工程,成為第一個用于解決實際問題的人工神經網絡,促進了神經網絡的研究應用和發展。ADALINE網絡模型是一種連續取值的自適應線性神經元網絡模型,可以用于自適應系統。
2. 第二階段----低潮時期
人工智能的創始人之一Minsky和Papert對以感知器為代表的網絡系統的功能及局限性從數學上做了深入研究,于1969年發表了轟動一時《Perceptrons》一書,指出簡單的線性感知器的功能是有限的,它無法解決線性不可分的兩類樣本的分類問題,如簡單的線性感知器不可能實現“異或”的邏輯關系等。這一論斷給當時人工神經元網絡的研究帶來沉重的打擊。開始了神經網絡發展史上長達10年的低潮期。
(1)、自組織神經網絡SOM模型:1972年,芬蘭的KohonenT.教授,提出了自組織神經網絡SOM(Self-Organizing feature map)。后來的神經網絡主要是根據KohonenT.的工作來實現的。SOM網絡是一類無導師學習網絡,主要用于模式識別﹑語音識別及分類問題。它采用一種“勝者為王”的競爭學習算法,與先前提出的感知器有很大的不同,同時它的學習訓練方式是無指導訓練,是一種自組織網絡。這種學習訓練方式往往是在不知道有哪些分類類型存在時,用作提取分類信息的一種訓練。
(2)、自適應共振理論ART:1976年,美國Grossberg教授提出了著名的自適應共振理論ART(Adaptive Resonance Theory),其學習過程具有自組織和自穩定的特征。
3. 第三階段----復興時期
(1)、Hopfield模型:1982年,美國物理學家霍普菲爾德(Hopfield)提出了一種離散神經網絡,即離散Hopfield網絡,從而有力地推動了神經網絡的研究。在網絡中,它首次將李雅普諾夫(Lyapunov)函數引入其中,后來的研究學者也將Lyapunov函數稱為能量函數。證明了網絡的穩定性。1984年,Hopfield 又提出了一種連續神經網絡,將網絡中神經元的激活函數由離散型改為連續型。1985 年,Hopfield和Tank利用Hopfield神經網絡解決了著名的旅行推銷商問題(Travelling Salesman Problem)。Hopfield神經網絡是一組非線性微分方程。Hopfield的模型不僅對人工神經網絡信息存儲和提取功能進行了非線性數學概括,提出了動力方程和學習方程,還對網絡算法提供了重要公式和參數,使人工神經網絡的構造和學習有了理論指導,在Hopfield模型的影響下,大量學者又激發起研究神經網絡的熱情,積極投身于這一學術領域中。因為Hopfield 神經網絡在眾多方面具有巨大潛力,所以人們對神經網絡的研究十分地重視,更多的人開始了研究神經網絡,極大地推動了神經網絡的發展。
(2)、Boltzmann機模型:1983年,Kirkpatrick等人認識到模擬退火算法可用于NP完全組合優化問題的求解,這種模擬高溫物體退火過程來找尋全局最優解的方法最早由Metropli等人1953年提出的。1984年,Hinton與年輕學者Sejnowski等合作提出了大規模并行網絡學習機,并明確提出隱單元的概念,這種學習機后來被稱為Boltzmann機。
Hinton和Sejnowsky利用統計物理學的感念和方法,首次提出的多層網絡的學習算法,稱為Boltzmann 機模型。
(3)、BP神經網絡模型:1986年,儒默哈特(D.E.Ru melhart)等人在多層神經網絡模型的基礎上,提出了多層神經網絡權值修正的反向傳播學習算法----BP算法(Error Back-Propagation),解決了多層前向神經網絡的學習問題,證明了多層神經網絡具有很強的學習能力,它可以完成許多學習任務,解決許多實際問題。
(4)、并行分布處理理論:1986年,由Rumelhart和McCkekkand主編的《Parallel Distributed Processing:Exploration in the Microstructures of Cognition》,該書中,他們建立了并行分布處理理論,主要致力于認知的微觀研究,同時對具有非線性連續轉移函數的多層前饋網絡的誤差反向傳播算法即BP算法進行了詳盡的分析,解決了長期以來沒有權值調整有效算法的難題。可以求解感知機所不能解決的問題,回答了《Perceptrons》一書中關于神經網絡局限性的問題,從實踐上證實了人工神經網絡有很強的運算能力。
(5)、細胞神經網絡模型:1988年,Chua和Yang提出了細胞神經網絡(CNN)模型,它是一個細胞自動機特性的大規模非線性計算機仿真系統。Kosko建立了雙向聯想存儲模型(BAM),它具有非監督學習能力。
(6)、Darwinism模型:Edelman提出的Darwinism模型在90年代初產生了很大的影響,他建立了一種神經網絡系統理論。
(7)、1988年,Linsker對感知機網絡提出了新的自組織理論,并在Shanon信息論的基礎上形成了最大互信息理論,從而點燃了基于NN的信息應用理論的光芒。
(8)、1988年,Broomhead和Lowe用徑向基函數(Radialbasis function, RBF)提出分層網絡的設計方法,從而將NN的設計與數值分析和線性適應濾波相掛鉤。
(9)、1991年,Haken把協同引入神經網絡,在他的理論框架中,他認為,認知過程是自發的,并斷言模式識別過程即是模式形成過程。
(10)、1994年,廖曉昕關于細胞神經網絡的數學理論與基礎的提出,帶來了這個領域新的進展。通過拓廣神經網絡的激活函數類,給出了更一般的時滯細胞神經網絡(DCNN)、Hopfield神經網絡(HNN)、雙向聯想記憶網絡(BAM)模型。
(11)、90年代初,Vapnik等提出了支持向量機(Supportvector machines, SVM)和VC(Vapnik-Chervonenkis)維數的概念。
經過多年的發展,已有上百種的神經網絡模型被提出。
9、神經網絡的功能!
完成某種信號處理或模式識別的功能、構作專家系統、制成機器人、復雜系統控制等等。
在機器學習和相關領域,人工神經網絡(人工神經網絡)的計算模型靈感來自動物的中樞神經系統(尤其是腦),并且被用于估計或可以依賴于大量的輸入和一般的未知近似函數。人工神經網絡通常呈現為相互連接的“神經元”,它可以從輸入的計算值,并且能夠機器學習以及模式識別由于它們的自適應性質的系統。
人工神經網絡的最大優勢是他們能夠被用作一個任意函數逼近的機制,那是從觀測到的數據“學習”。然而,使用起來也不是那么簡單的,一個比較好理解的基本理論是必不可少的。
總結
以上是生活随笔為你收集整理的数据挖掘人工神经网络,神经网络的数据处理的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: DeepLearing—CV系列(二十二
- 下一篇: 手绘vs码绘1——Q版小人