人工智能、机器学习和深度学习的区别?
作者:育心
鏈接:https://www.zhihu.com/question/57770020/answer/249708509
來源:知乎
著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處。
?
人工智能的浪潮正在席卷全球,諸多詞匯時刻縈繞在我們耳邊:人工智能(Artificial Intelligence)、機器學(xué)習(xí)(Machine Learning)、深度學(xué)習(xí)(Deep Learning)。不少人對這些高頻詞匯的含義及其背后的關(guān)系總是似懂非懂、一知半解。
為了幫助大家更好地理解人工智能,這篇文章用最簡單的語言解釋了這些詞匯的含義,理清它們之間的關(guān)系,希望對剛?cè)腴T的同行有所幫助。
圖一 人工智能的應(yīng)用
人工智能:從概念提出到走向繁榮
1956年,幾個計算機科學(xué)家相聚在達特茅斯會議,提出了“人工智能”的概念,夢想著用當(dāng)時剛剛出現(xiàn)的計算機來構(gòu)造復(fù)雜的、擁有與人類智慧同樣本質(zhì)特性的機器。其后,人工智能就一直縈繞于人們的腦海之中,并在科研實驗室中慢慢孵化。之后的幾十年,人工智能一直在兩極反轉(zhuǎn),或被稱作人類文明耀眼未來的預(yù)言,或被當(dāng)成技術(shù)瘋子的狂想扔到垃圾堆里。直到2012年之前,這兩種聲音還在同時存在。
2012年以后,得益于數(shù)據(jù)量的上漲、運算力的提升和機器學(xué)習(xí)新算法(深度學(xué)習(xí))的出現(xiàn),人工智能開始大爆發(fā)。據(jù)領(lǐng)英近日發(fā)布的《全球AI領(lǐng)域人才報告》顯示,截至2017年一季度,基于領(lǐng)英平臺的全球AI(人工智能)領(lǐng)域技術(shù)人才數(shù)量超過190萬,僅國內(nèi)人工智能人才缺口達到500多萬。
人工智能的研究領(lǐng)域也在不斷擴大,圖二展示了人工智能研究的各個分支,包括專家系統(tǒng)、機器學(xué)習(xí)、進化計算、模糊邏輯、計算機視覺、自然語言處理、推薦系統(tǒng)等。
圖二 人工智能研究分支
但目前的科研工作都集中在弱人工智能這部分,并很有希望在近期取得重大突破,電影里的人工智能多半都是在描繪強人工智能,而這部分在目前的現(xiàn)實世界里難以真正實現(xiàn)(通常將人工智能分為弱人工智能和強人工智能,前者讓機器具備觀察和感知的能力,可以做到一定程度的理解和推理,而強人工智能讓機器獲得自適應(yīng)能力,解決一些之前沒有遇到過的問題)。
弱人工智能有希望取得突破,是如何實現(xiàn)的,“智能”又從何而來呢?這主要歸功于一種實現(xiàn)人工智能的方法——機器學(xué)習(xí)。
機器學(xué)習(xí):一種實現(xiàn)人工智能的方法
機器學(xué)習(xí)最基本的做法,是使用算法來解析數(shù)據(jù)、從中學(xué)習(xí),然后對真實世界中的事件做出決策和預(yù)測。與傳統(tǒng)的為解決特定任務(wù)、硬編碼的軟件程序不同,機器學(xué)習(xí)是用大量的數(shù)據(jù)來“訓(xùn)練”,通過各種算法從數(shù)據(jù)中學(xué)習(xí)如何完成任務(wù)。
舉個簡單的例子,當(dāng)我們?yōu)g覽網(wǎng)上商城時,經(jīng)常會出現(xiàn)商品推薦的信息。這是商城根據(jù)你往期的購物記錄和冗長的收藏清單,識別出這其中哪些是你真正感興趣,并且愿意購買的產(chǎn)品。這樣的決策模型,可以幫助商城為客戶提供建議并鼓勵產(chǎn)品消費。
機器學(xué)習(xí)直接來源于早期的人工智能領(lǐng)域,傳統(tǒng)的算法包括決策樹、聚類、貝葉斯分類、支持向量機、EM、Adaboost等等。從學(xué)習(xí)方法上來分,機器學(xué)習(xí)算法可以分為監(jiān)督學(xué)習(xí)(如分類問題)、無監(jiān)督學(xué)習(xí)(如聚類問題)、半監(jiān)督學(xué)習(xí)、集成學(xué)習(xí)、深度學(xué)習(xí)和強化學(xué)習(xí)。
傳統(tǒng)的機器學(xué)習(xí)算法在指紋識別、基于Haar的人臉檢測、基于HoG特征的物體檢測等領(lǐng)域的應(yīng)用基本達到了商業(yè)化的要求或者特定場景的商業(yè)化水平,但每前進一步都異常艱難,直到深度學(xué)習(xí)算法的出現(xiàn)。
深度學(xué)習(xí):一種實現(xiàn)機器學(xué)習(xí)的技術(shù)
深度學(xué)習(xí)本來并不是一種獨立的學(xué)習(xí)方法,其本身也會用到有監(jiān)督和無監(jiān)督的學(xué)習(xí)方法來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。但由于近幾年該領(lǐng)域發(fā)展迅猛,一些特有的學(xué)習(xí)手段相繼被提出(如殘差網(wǎng)絡(luò)),因此越來越多的人將其單獨看作一種學(xué)習(xí)的方法。
最初的深度學(xué)習(xí)是利用深度神經(jīng)網(wǎng)絡(luò)來解決特征表達的一種學(xué)習(xí)過程。深度神經(jīng)網(wǎng)絡(luò)本身并不是一個全新的概念,可大致理解為包含多個隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。為了提高深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果,人們對神經(jīng)元的連接方法和激活函數(shù)等方面做出相應(yīng)的調(diào)整。其實有不少想法早年間也曾有過,但由于當(dāng)時訓(xùn)練數(shù)據(jù)量不足、計算能力落后,因此最終的效果不盡如人意。
深度學(xué)習(xí)摧枯拉朽般地實現(xiàn)了各種任務(wù),使得似乎所有的機器輔助功能都變?yōu)榭赡堋o人駕駛汽車,預(yù)防性醫(yī)療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現(xiàn)。
三者的區(qū)別和聯(lián)系
機器學(xué)習(xí)是一種實現(xiàn)人工智能的方法,深度學(xué)習(xí)是一種實現(xiàn)機器學(xué)習(xí)的技術(shù)。我們就用最簡單的方法——同心圓,可視化地展現(xiàn)出它們?nèi)叩年P(guān)系。
圖三 三者關(guān)系示意圖
目前,業(yè)界有一種錯誤的較為普遍的意識,即“深度學(xué)習(xí)最終可能會淘汰掉其他所有機器學(xué)習(xí)算法”。這種意識的產(chǎn)生主要是因為,當(dāng)下深度學(xué)習(xí)在計算機視覺、自然語言處理領(lǐng)域的應(yīng)用遠超過傳統(tǒng)的機器學(xué)習(xí)方法,并且媒體對深度學(xué)習(xí)進行了大肆夸大的報道。
深度學(xué)習(xí),作為目前最熱的機器學(xué)習(xí)方法,但并不意味著是機器學(xué)習(xí)的終點。起碼目前存在以下問題:
1. 深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù),才能展現(xiàn)出神奇的效果,但現(xiàn)實生活中往往會遇到小樣本問題,此時深度學(xué)習(xí)方法無法入手,傳統(tǒng)的機器學(xué)習(xí)方法就可以處理;
2. 有些領(lǐng)域,采用傳統(tǒng)的簡單的機器學(xué)習(xí)方法,可以很好地解決了,沒必要非得用復(fù)雜的深度學(xué)習(xí)方法;
3. 深度學(xué)習(xí)的思想,來源于人腦的啟發(fā),但絕不是人腦的模擬,舉個例子,給一個三四歲的小孩看一輛自行車之后,再見到哪怕外觀完全不同的自行車,小孩也十有八九能做出那是一輛自行車的判斷,也就是說,人類的學(xué)習(xí)過程往往不需要大規(guī)模的訓(xùn)練數(shù)據(jù),而現(xiàn)在的深度學(xué)習(xí)方法顯然不是對人腦的模擬。
深度學(xué)習(xí)大佬 Yoshua Bengio 在 Quora 上回答一個類似的問題時,有一段話講得特別好,這里引用一下,以回答上述問題:
Science is NOT a battle, it is a collaboration. We all build on each other's ideas. Science is an act of love, not war. Love for the beauty in the world that surrounds us and love to share and build something together. That makes science a highly satisfying activity, emotionally speaking!這段話的大致意思是,科學(xué)不是戰(zhàn)爭而是合作,任何學(xué)科的發(fā)展從來都不是一條路走到黑,而是同行之間互相學(xué)習(xí)、互相借鑒、博采眾長、相得益彰,站在巨人的肩膀上不斷前行。機器學(xué)習(xí)的研究也是一樣,你死我活那是邪教,開放包容才是正道。
結(jié)合機器學(xué)習(xí)2000年以來的發(fā)展,再來看Bengio的這段話,深有感觸。進入21世紀(jì),縱觀機器學(xué)習(xí)發(fā)展歷程,研究熱點可以簡單總結(jié)為2000-2006年的流形學(xué)習(xí)、2006年-2011年的稀疏學(xué)習(xí)、2012年至今的深度學(xué)習(xí)。未來哪種機器學(xué)習(xí)算法會成為熱點呢?深度學(xué)習(xí)三大巨頭之一吳恩達曾表示,“在繼深度學(xué)習(xí)之后,遷移學(xué)習(xí)將引領(lǐng)下一波機器學(xué)習(xí)技術(shù)”。但最終機器學(xué)習(xí)的下一個熱點是什么,誰又能說得準(zhǔn)呢。
?
阿里云云棲號
?
已認證的官方帳號
154 人贊同了該回答
人工智能并不是一個新的術(shù)語,它已經(jīng)有幾十年的歷史了,大約從80年代初開始,計算機科學(xué)家們開始設(shè)計可以學(xué)習(xí)和模仿人類行為的算法。
在算法方面,最重要的算法是神經(jīng)網(wǎng)絡(luò),由于過擬合而不是很成功(模型太強大,但數(shù)據(jù)不足)。盡管如此,在一些更具體的任務(wù)中,使用數(shù)據(jù)來適應(yīng)功能的想法已經(jīng)取得了顯著的成功,并且這也構(gòu)成了當(dāng)今機器學(xué)習(xí)的基礎(chǔ)。
在模仿方面,人工智能專注于圖像識別,語音識別和自然語言處理。人工智能專家們花費了大量的時間來創(chuàng)建諸如邊緣檢測,顏色配置文件,N-gram,語法樹等。不過,這些進步還不足以達到我們的需求。
傳統(tǒng)的機器學(xué)習(xí):
機器學(xué)習(xí)(ML)技術(shù)在預(yù)測中發(fā)揮了重要的作用,ML經(jīng)歷了多代的發(fā)展,形成了具有豐富的模型結(jié)構(gòu),例如:
1.線性回歸。
2.邏輯回歸。
3.決策樹。
4.支持向量機。
5.貝葉斯模型。
6.正則化模型。
7.模型集成(ensemble)。
8.神經(jīng)網(wǎng)絡(luò)。
這些預(yù)測模型中的每一個都基于特定的算法結(jié)構(gòu),參數(shù)都是可調(diào)的。訓(xùn)練預(yù)測模型涉及以下步驟:
1.?選擇一個模型結(jié)構(gòu)(例如邏輯回歸,隨機森林等)。
2.?用訓(xùn)練數(shù)據(jù)(輸入和輸出)輸入模型。
3.?學(xué)習(xí)算法將輸出最優(yōu)模型(即具有使訓(xùn)練錯誤最小化的特定參數(shù)的模型)。
每種模式都有自己的特點,在一些任務(wù)中表現(xiàn)不錯,但在其他方面表現(xiàn)不佳。但總的來說,我們可以把它們分成低功耗(簡單)模型和高功耗(復(fù)雜)模型。選擇不同的模型是一個非常棘手的問題。
由于以下原因,使用低功率/簡單模型是優(yōu)于使用高功率/復(fù)雜模型:
- 在我們擁有強大的處理能力之前,訓(xùn)練高功率模型將需要很長的時間。
- 在我們擁有大量數(shù)據(jù)之前,訓(xùn)練高功率模型會導(dǎo)致過度擬合問題(因為高功率模型具有豐富的參數(shù)并且可以適應(yīng)廣泛的數(shù)據(jù)形狀,所以我們最終可能訓(xùn)練一個適合于特定到當(dāng)前的訓(xùn)練數(shù)據(jù),而不是推廣到足以對未來的數(shù)據(jù)做好預(yù)測)。
然而,選擇一個低功率的模型會遇到所謂的“欠擬合”的問題,模型結(jié)構(gòu)太簡單,如果它復(fù)雜,就無法適應(yīng)訓(xùn)練數(shù)據(jù)。(想象一下,基礎(chǔ)數(shù)據(jù)有一個二次方關(guān)系:y = 5 * x ^ 2;你無法適應(yīng)線性回歸:y = a * x + b,不管我們選擇什么樣的a和b。
為了緩解“不適合的問題”,數(shù)據(jù)科學(xué)家通常會運用他們的“領(lǐng)域知識”來提出“輸入特征”,這與輸出關(guān)系更為直接。(例如,返回二次關(guān)系y = 5 * square(x),如果創(chuàng)建了一個特征z = x ^ 2,則可以擬合線性回歸:y = a * z + b,通過選擇a = 5和b = 0)。
機器學(xué)習(xí)的主要障礙是特征工程這個步驟,這需要領(lǐng)域?qū)<以谶M入訓(xùn)練過程之前就要找到非常重要的特征。特征工程步驟是要靠手動完成的,而且需要大量領(lǐng)域?qū)I(yè)知識,因此它成為當(dāng)今大多數(shù)機器學(xué)習(xí)任務(wù)的主要瓶頸。
換句話說,如果我們沒有足夠的處理能力和足夠的數(shù)據(jù),那么我們必須使用低功耗/更簡單的模型,這就需要我們花費大量的時間和精力來創(chuàng)建合適的輸入特征。這是大多數(shù)數(shù)據(jù)科學(xué)家今天花時間去做的地方。
神經(jīng)網(wǎng)絡(luò)的回歸:
在大數(shù)據(jù)時代,云計算和大規(guī)模并行處理基礎(chǔ)架構(gòu)的共同發(fā)展,使得機器處理能力在二十一世紀(jì)初得到了極大的提升。我們不再局限于低功耗/簡單的模型。例如,當(dāng)今最流行的兩種主流機器學(xué)習(xí)模型是隨機森林和梯度提升樹。盡管如此,兩者都非常強大,并且提供了非線性模型擬合的訓(xùn)練數(shù)據(jù),但數(shù)據(jù)科學(xué)家仍然需要仔細地創(chuàng)建特征以獲得良好的性能。
與此同時,計算機科學(xué)家重新使用神經(jīng)網(wǎng)絡(luò)的許多層來完成這些人類模仿的任務(wù)。這給DNN(深度神經(jīng)網(wǎng)絡(luò))帶來了新的生機,并在圖像分類和語音識別任務(wù)方面提供了重大突破。DNN的主要區(qū)別在于,你可以將原始信號(例如RGB像素值)直接輸入DNN,而不需要創(chuàng)建任何域特定的輸入功能。通過多層神經(jīng)元(這就是為什么它被稱為“深度”神經(jīng)網(wǎng)絡(luò)),DNN可以“自動”通過每一層產(chǎn)生適當(dāng)?shù)奶卣?#xff0c;最后提供一個非常好的預(yù)測。這極大地消除了尋找“特征工程”的麻煩,這是數(shù)據(jù)科學(xué)家們最喜歡看到的。
DNN也演變成許多不同的網(wǎng)絡(luò)拓撲結(jié)構(gòu),所以有CNN(卷積神經(jīng)網(wǎng)絡(luò)),RNN(遞歸神經(jīng)網(wǎng)絡(luò)),LSTM(長期短期記憶),GAN(生成敵對網(wǎng)絡(luò)),轉(zhuǎn)移學(xué)習(xí),注意模型(attention model)所有的這些被統(tǒng)稱為深度學(xué)習(xí)(Deep Learning),它正在引起整個機器學(xué)習(xí)界的關(guān)注。
強化學(xué)習(xí):
另一個關(guān)鍵組成部分是關(guān)于如何模仿一個人(或動物)的學(xué)習(xí),設(shè)想感知/行為/獎勵循環(huán)的非常自然的動物行為。一個人或者一個動物首先會通過感知他或者她所處的狀態(tài)來了解環(huán)境。在此基礎(chǔ)上,他或者她會選擇一個“動作”,將他或者她帶到另一個“狀態(tài)”。那么他或她將獲得“獎勵”,循環(huán)重復(fù),直到他或她消失。這種學(xué)習(xí)方式(稱為強化學(xué)習(xí))與傳統(tǒng)監(jiān)督機器學(xué)習(xí)的曲線擬合方法有很大不同。尤其是,強化學(xué)習(xí)學(xué)習(xí)得非常快,因為每一個新的反饋(例如執(zhí)行一個行動并獲得獎勵)都被立即發(fā)送到影響隨后的決定。
強化學(xué)習(xí)也提供了預(yù)測和優(yōu)化的平滑整合,因為它在采取不同的行動時保持當(dāng)前狀態(tài)的信念和可能的轉(zhuǎn)換概率,然后做出決定哪些行動可以導(dǎo)致最佳結(jié)果。
深度學(xué)習(xí)+強化學(xué)習(xí)= AI
與經(jīng)典的ML技術(shù)相比,DL提供了一個更強大的預(yù)測模型,通常可以產(chǎn)生良好的預(yù)測結(jié)果。與經(jīng)典優(yōu)化模型相比,強化學(xué)習(xí)提供了更快的學(xué)習(xí)機制,并且更適應(yīng)環(huán)境的變化。
機器學(xué)習(xí) vs 深度學(xué)習(xí)
在深度探討machine learning和data science的聯(lián)系之前,這里簡要地討論一下machine learning 和deep learning。machine learning是一套算法,來訓(xùn)練數(shù)據(jù)集做預(yù)測或者采取行動以使得系統(tǒng)最優(yōu)化。舉例來說,supervised classification algorithms被用來根據(jù)歷史數(shù)據(jù)將想要貸款的客戶分成預(yù)期好的和預(yù)期差的(good or bad prospects)。對于給定的任務(wù)(比如監(jiān)督聚類),需要的技術(shù)多種多樣:naive Bayes、SVM、neural nets、ensembles、association rules、decision trees、logistic regression,或者是很多技術(shù)的組合。所有這些都是數(shù)據(jù)科學(xué)的子集。當(dāng)這些算法自動化后,比如無人駕駛飛機或者無人駕駛汽車,這就叫AI了,或者說的具體一點,deep learning。如果采集的數(shù)據(jù)來自傳感器并且通過互聯(lián)網(wǎng)傳播,那么這就是機器學(xué)習(xí)或數(shù)據(jù)科學(xué)或深度學(xué)習(xí)應(yīng)用于物聯(lián)網(wǎng)了。
有些人對深度學(xué)習(xí)有不同的定義,他們認為深度學(xué)習(xí)是更深層次的神經(jīng)網(wǎng)絡(luò)(一種機器學(xué)習(xí)的技術(shù))。AI(Artificial?Intelligence)是創(chuàng)建于20世紀(jì)60年代的計算機科學(xué)的一個子領(lǐng)域,是關(guān)于解決那些對人類來講非常容易但是對計算機而言很難的任務(wù)。值得一提的是,所謂的strong AI可能可以做所有人類可以做的事情(可能除了純粹的物理問題)。這是相當(dāng)廣泛的,包括各種各樣的事情,比如做計劃,在世界上到處溜達,識別物體和聲音,說話,翻譯,社交或者商業(yè)交易,還有創(chuàng)造性工作(比如寫詩畫畫)等等。
NLP(Natural language processing)只是AI要處理的語言部分,尤其是寫。
Machine learning是這樣的一種情況:給出一些可以被以離散形式描述的AI問題(比如從一系列動作中選出對的那個),然后給定一堆外部世界的信息,在不需要程序員手動寫程序的情況下選出那個“正確的”行為。通常情況需要借助外界的一些過程來判斷這個動作對不對。在數(shù)學(xué)上,這就是函數(shù):你給一些輸入,然后你想要他處理一下得到正確的輸出,所以整個問題就簡化為用一些自動的方式建立這種數(shù)學(xué)函數(shù)模型。和AI區(qū)分一下:如果我寫了一段特別機智的程序有著人類的行為,那這就可以是AI,但是除非它的參量都是自動從數(shù)據(jù)中學(xué)會的,否則就不是機器學(xué)習(xí)。
Deep learning是當(dāng)下非常流行的機器學(xué)習(xí)的一種。它包含一種特殊的數(shù)學(xué)模型,可以想成是一種特定類型的簡單塊的組合(或者說是塊的功能的組合),這些塊可以進行調(diào)整來更好的預(yù)測最終結(jié)果。
原文:http://click.aliyun.com/m/44042/
來源:https://www.zhihu.com/question/57770020
總結(jié)
以上是生活随笔為你收集整理的人工智能、机器学习和深度学习的区别?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 15个最受欢迎的Python开源框架(转
- 下一篇: 河南省商丘市星林路方域路和合社区用的哪个