一篇文章解决机器学习,深度学习入门疑惑
前言
進(jìn)入正文前,我們先來看則新聞:
只看圖不多說。
由此可見國家對(duì)人工智能的重視程序,趁早學(xué)習(xí),讓我們也貢獻(xiàn)一份力量。
這篇文章要說的東西
研究生有不少日子,和之前的幾個(gè)學(xué)長以及幾個(gè)學(xué)弟偶爾也聊聊天。大部分聊的話題無關(guān)乎這幾年大火的機(jī)器學(xué)習(xí)深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),而這篇文章的目的,則是從學(xué)生的角度(不管是研究生還是即將步入研究生的本科生)來看待這個(gè)大方向和大趨勢(shì),也是為了替那些剛?cè)腴T或者準(zhǔn)備入門機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺、圖像處理、語音識(shí)別及處理等等等相關(guān)方向的童鞋,或者研一童鞋學(xué)習(xí)相關(guān)方向迷茫者了清一些基本的概念,以及解決這些“名詞”代表什么,應(yīng)該怎么選擇,怎么入門的問題,畢竟誰當(dāng)年也迷茫過,多一些傳承,就少走一些彎路。
涉及到的相關(guān)專業(yè)
多了去了,現(xiàn)在什么專業(yè)只要和算法沾點(diǎn)關(guān)系,差不多都可以搞機(jī)器學(xué)習(xí)深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),舉幾個(gè)比較常見的專業(yè):機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、圖像處理、計(jì)算機(jī)視覺、大數(shù)據(jù)處理、信息檢索、智能系統(tǒng)、數(shù)據(jù)挖掘、并行計(jì)算、圖形圖像處理、大數(shù)據(jù)處理與可視化分析…
案頭的兩本書,經(jīng)典的西瓜書和深度學(xué)習(xí)圣經(jīng)。
涉及到相關(guān)的應(yīng)用
機(jī)器學(xué)習(xí)和深度學(xué)習(xí)方面的應(yīng)用太多,什么圖像分割,語言識(shí)別,超分辨率,圖像跟蹤,圖像生成等等等等,具體到每個(gè)小的領(lǐng)域都有相關(guān)方面的應(yīng)用,在這里簡(jiǎn)單隨便介紹兩個(gè)使用場(chǎng)景。
機(jī)器學(xué)習(xí):比如淘寶推薦,有那么一兩天心血來找突然想買一個(gè)游戲機(jī)。你打開手機(jī)淘寶App后點(diǎn)擊搜索,輸入某款游戲機(jī)的名字(例如:switch),查看一些賣游戲機(jī)的店的信息。這個(gè)時(shí)候淘寶就已經(jīng)在記錄你的信息了,不管你點(diǎn)開哪個(gè)店主的網(wǎng)店,淘寶都會(huì)收集你的偏好,淘寶會(huì)記錄你點(diǎn)開的每一個(gè)鏈接,每一個(gè)鏈接的內(nèi)容都給你記錄下來。當(dāng)你下一次登錄淘寶App的時(shí)候,淘寶就會(huì)根據(jù)在你這邊收集的信息和機(jī)器學(xué)習(xí)算法來分析你的愛好和特點(diǎn)進(jìn)而給你推送一些比較適合你的,你可能喜歡的物品。
深度學(xué)習(xí):再比如之前很火的換臉項(xiàng)目-DeepFake:
通過變分自編碼器提取一張圖片的特征信息,再根據(jù)另一張圖片的特征信息還原出來
上面每三個(gè)圖中,最左邊是川普的臉,而最右邊則是尼古拉的臉,通過自編碼器提取特征進(jìn)行生成。通過這個(gè)甚至可以對(duì)視頻進(jìn)行以假亂真,這是個(gè)深度學(xué)習(xí)的應(yīng)用,對(duì)這個(gè)項(xiàng)目有興趣的可以看其源碼:https://github.com/Oldpan/faceswap-pytorch
正文
首先聲明,正文部分可能沒有你們想象的那么多,這篇文章并不妄想將所有的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)概括并整理出來,沒有什么意義。因?yàn)?#xff0c;一是機(jī)器學(xué)習(xí)涉及到的公式算法很多很多,寫那么多公式對(duì)初學(xué)者并不友好,本來是入門很簡(jiǎn)單的一件事情沒有必要復(fù)雜化,二是這篇文章的定位不是機(jī)器學(xué)習(xí)也不是深度學(xué)習(xí)教材,當(dāng)然也不是科普文,這篇文章是以大學(xué)生的角度來談一談這個(gè)話題,把我的一些經(jīng)驗(yàn)跟大家分享分享。
開始說正事,不論你之前干什么學(xué)什么,在什么專業(yè)什么領(lǐng)域,不用擔(dān)心。有一些編程基礎(chǔ)(C/C++),還有一些數(shù)學(xué)的基本知識(shí)(高數(shù)、線性代數(shù)、概率統(tǒng)計(jì))就可以了,另外,機(jī)器學(xué)習(xí)主要使用的語言是python。python(派森),想必大家不管熟悉不熟悉總歸是聽說過,對(duì),這個(gè)語言很火,很強(qiáng)大,很牛逼,無所不能,機(jī)器學(xué)習(xí)和python有著很緊密的聯(lián)系。很多的深度學(xué)習(xí)庫都是使用python語言進(jìn)行編程的,所以學(xué)習(xí)這門語言也是有必要的。
機(jī)器學(xué)習(xí)
首先說明機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系:深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子集,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中的一個(gè)領(lǐng)域,一小塊部分,想要了解深度學(xué)習(xí),首先要了解機(jī)器學(xué)習(xí)。
人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)關(guān)系圖
通過上面這張圖可以看出人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系,人工智能的范圍很廣,當(dāng)然不止包括機(jī)器學(xué)習(xí),而深度學(xué)習(xí)只是機(jī)器學(xué)習(xí)的一個(gè)比較重要的子集。剛開始看很容易搞混,雖然理論上深度學(xué)習(xí)屬于機(jī)器學(xué)習(xí)的一部分,但機(jī)器學(xué)習(xí)和深度學(xué)習(xí)主要定位目標(biāo)還是可以區(qū)分出來的,機(jī)器學(xué)習(xí)主要是對(duì)文本數(shù)據(jù)進(jìn)行處理(表格中的數(shù)據(jù)),而深度學(xué)習(xí)則主要對(duì)圖像和語音這些方面進(jìn)行處理。
關(guān)于機(jī)器學(xué)習(xí)的歷史,這里不多說,網(wǎng)上一抓一大把,自行查閱即可。也以看看機(jī)器學(xué)習(xí)西瓜書(就是上文圖片中擺出的)上面對(duì)機(jī)器學(xué)習(xí)歷史的介紹。
?
那到底什么是機(jī)器學(xué)習(xí),本質(zhì)上就是利用一些數(shù)學(xué)算法來解決實(shí)際問題。并且這些數(shù)學(xué)算法我們都學(xué)過一些。做過數(shù)學(xué)建模的同學(xué)們或多或少接觸過機(jī)器學(xué)習(xí)的知識(shí),當(dāng)你使用matlab在對(duì)一個(gè)函數(shù)進(jìn)行線性擬合的時(shí)候,你已經(jīng)在用機(jī)器學(xué)習(xí)了。
機(jī)器學(xué)習(xí)的一般過程大致分為:
- 獲取你需要的數(shù)據(jù)(獲取數(shù)據(jù),整理數(shù)據(jù),數(shù)據(jù)增強(qiáng))
- 對(duì)數(shù)據(jù)進(jìn)行分析(數(shù)據(jù)預(yù)處理)
- 使用相應(yīng)的算法,對(duì)數(shù)據(jù)進(jìn)行處理(機(jī)器學(xué)習(xí)算法)
- 然后得出結(jié)果的過程。(輸出結(jié)果)
直白點(diǎn),假如我們把算法想象成一個(gè)簡(jiǎn)單的函數(shù)(這個(gè)函數(shù)就是你設(shè)計(jì)的算法): y = x + 2。
x 就是輸入也就是數(shù)據(jù),y就是輸出也就是你要得到的結(jié)果,x + 2 這個(gè)過程就是你算法的過程。
簡(jiǎn)單吧,再來個(gè)稍微復(fù)雜點(diǎn)的函數(shù): 5 = w*x + 4。
這個(gè)函數(shù)不是方程嗎?對(duì),這是個(gè)方程,如果我們得到了x的值,相應(yīng)地我們就可以求出w。但我們現(xiàn)在不以方程的角度去想他,讓我們以機(jī)器學(xué)習(xí)的角度去想它。
假設(shè),上面那個(gè)函數(shù)我們現(xiàn)在不能一眼看出結(jié)果。上面的函數(shù)是我們?cè)O(shè)計(jì)的一個(gè)機(jī)器學(xué)習(xí)算法,使這個(gè)算法通過輸入我們給的數(shù)據(jù)x然后得到一個(gè)結(jié)果(假設(shè)我們要得到的結(jié)果是5),于是,上面這個(gè)機(jī)器學(xué)習(xí)算法(函數(shù))是我們自己設(shè)計(jì)的,我們想要通過輸入x來得到輸出5。
于是我們?cè)O(shè)計(jì)了: 5 = w*x + 4。
然后怎么辦呢,機(jī)器學(xué)習(xí),就是機(jī)器進(jìn)行學(xué)習(xí)的過程。在機(jī)器學(xué)習(xí)中,我們想要我們?cè)O(shè)計(jì)的這個(gè)算法能夠逐漸學(xué)習(xí)如何去得到最終結(jié)果,這個(gè)過程就是通過訓(xùn)練來得到的。
訓(xùn)練肯定和實(shí)戰(zhàn)是不一樣的,一般在我們機(jī)器學(xué)習(xí)的過程中,我們數(shù)據(jù)集分為兩個(gè)部分,訓(xùn)練集和測(cè)試集,相當(dāng)于練習(xí)和實(shí)戰(zhàn)了。當(dāng)然訓(xùn)練這個(gè)過程是針對(duì)有監(jiān)督學(xué)習(xí)的,什么是有監(jiān)督學(xué)習(xí),簡(jiǎn)單來說就是有l(wèi)abel,有標(biāo)記。比如給你一張圖,上面畫有一只貓,這張圖對(duì)應(yīng)的標(biāo)記就是1,如果這張圖上面是一條狗,那么這張圖對(duì)應(yīng)的標(biāo)記是2,我們讓機(jī)器學(xué)習(xí)去判斷一系列上面有貓和狗的圖片,在訓(xùn)練過程中我們給予其正確的圖和相應(yīng)標(biāo)記。可以理解為給一個(gè)幾歲小孩讓它認(rèn)圖,給他貓的圖他說1,給他狗的圖他說2,如果錯(cuò)了讓這個(gè)小孩記住狗的特征,下次可能就不會(huì)認(rèn)錯(cuò)了。這種學(xué)習(xí)過程就是有監(jiān)督,在學(xué)習(xí)過程中知道自個(gè)兒做出判斷是否正確,或者說有人監(jiān)督你,告訴你哪些你的判斷錯(cuò)了。
上圖取自cs231n,上面這張圖最右面是算法得出的結(jié)果,分?jǐn)?shù)最高的一項(xiàng)就是算法判斷出最有可能的結(jié)果(上面顯然判斷錯(cuò)了,本來是貓的圖,但是貓的得到為負(fù),而狗的得分是437,顯然此時(shí)的算法錯(cuò)把貓識(shí)別成狗了,需要繼續(xù)“操練”(訓(xùn)練))。
而無監(jiān)督學(xué)習(xí),就不需要標(biāo)記了,讓你憑自己的感覺去判斷是否正確,就像給你一堆三角形、圓形、或者長方形的卡片讓你將他們擺成三類。你憑借對(duì)這些卡片的形狀進(jìn)行區(qū)別,從而將這些卡片分為三類。
回到我們之前的問題:5 = w*x + 4。
首先我們不知道w是多少,這里我們把w稱之為權(quán)重。我們假設(shè)這個(gè)w是1(這是權(quán)重的初始化,而初始化方法也有很多),然后我們要求的輸入x是2(這里的輸入是固定的,是2也只能是2,2在這里相當(dāng)于數(shù)據(jù),從生活中獲得到的數(shù)據(jù),比如你往自動(dòng)售水機(jī)投入1個(gè)硬幣會(huì)出來一瓶礦泉水,這里的1就是輸入,你投入0.5個(gè)或者2個(gè)硬幣都不會(huì)得到礦泉水)。
這樣,x是2,w是1,這是我們第一次嘗試,我們運(yùn)行一遍算法,很快我們發(fā)現(xiàn),1*2 + 4 = 6。6不等于5,結(jié)果當(dāng)然錯(cuò)了。
錯(cuò)了就錯(cuò)了嗎?為了達(dá)到正確的結(jié)果,我們要設(shè)計(jì)一個(gè)標(biāo)準(zhǔn),在這里我們?cè)O(shè)計(jì)一個(gè)Loss,以下簡(jiǎn)稱為L,我們令L = y - 5,是我們算法結(jié)果和正確結(jié)果(這里的正確結(jié)果又可以稱之為Ground truth)的差。這個(gè)Loss就是損失,這個(gè)函數(shù)就是損失函數(shù),損失函數(shù)表明了我們算法得出的結(jié)果和實(shí)際的結(jié)果中有多大的差距,當(dāng)L為0時(shí),說明我們的算法可以完美地得到我們想要的結(jié)果。
但顯然這里的L是6-5=1,損失不為0,我們對(duì)損失L進(jìn)行求對(duì)權(quán)重w的導(dǎo)數(shù),通過鏈?zhǔn)椒▌t來進(jìn)行:
dL/dw = dL/dy * dy/dw
很顯然可以得到 dL/dw = 1*2(x帶入為2)。
于是我們得到了損失對(duì)輸入的導(dǎo)數(shù),在這里我們?cè)俣x一個(gè)學(xué)習(xí)率:r(learning rate)我們?cè)O(shè)其為:0.1,于是接下來我們得到了關(guān)于x的梯度下降公式:
w = w - r * dL/dw
帶入具體數(shù)字:
w = 1 - 0.1 * 2 = 0.8
此時(shí),權(quán)重w為0.8。
回到最開始的公式:w*x + 4 = 0.8 * 2 + 4 = 5.6
雖然5.6依然不等于5,但是相比于之前的結(jié)果6來說,稍微接近了,從L中就可以看出來,L = y - 5 = 5.6 - 5 = 0.6,經(jīng)過一次“學(xué)習(xí)過程”損失變小了。
看到這里很容易發(fā)現(xiàn),這個(gè)學(xué)習(xí)率如果改成0.2那么豈不損失下降的更快?當(dāng)然,學(xué)習(xí)率是超參數(shù)(即根據(jù)經(jīng)驗(yàn)來設(shè)置的參數(shù)),是由我們自行設(shè)定的,太高太低都不好,合適即可。
借用cs231n課程中的一張圖:
epoch即訓(xùn)練次數(shù),不同的學(xué)習(xí)率造成的結(jié)果是不一樣的,合適即可。
這樣,我們只訓(xùn)練了一次使損失由1降為0.6,當(dāng)我們訓(xùn)練多次的時(shí)候loss會(huì)繼續(xù)下降,但需要注意,loss并不會(huì)“恰好”地降為0,這種情況很少見,我們以后在實(shí)驗(yàn)中l(wèi)oss降到一定程度不會(huì)發(fā)生變化說明已經(jīng)訓(xùn)練結(jié)束了。
機(jī)器學(xué)習(xí)暫且說這么多。
深度學(xué)習(xí)
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一部分,可以歸納為具有網(wǎng)絡(luò)層數(shù)更深的神經(jīng)網(wǎng)絡(luò)。
神經(jīng)網(wǎng)絡(luò)的講解內(nèi)容網(wǎng)上很多,不再贅述,大家可以看下文的相關(guān)資料部分。
相關(guān)資料
機(jī)器學(xué)習(xí)和深度學(xué)習(xí)相關(guān)的資料很多,如果想全面列舉的話,100頁的篇幅都列舉不完,在這里我只向初學(xué)者推薦一些極具性價(jià)比的一些資料。另外,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)理論上不分家,但是既然要學(xué)習(xí)有個(gè)先后過程是比較好的,我的建議是先對(duì)機(jī)器學(xué)習(xí)有全面的認(rèn)識(shí)和實(shí)踐,然后再來進(jìn)行深度學(xué)習(xí),這樣基礎(chǔ)將會(huì)很扎實(shí)。
書籍
- 推薦程序員的數(shù)學(xué)系列,一共有三本(第一本稍微雞肋,后兩本干貨較多),分別是程序員的數(shù)學(xué)1,線性代數(shù)(程序員的數(shù)學(xué)2)以及概率統(tǒng)計(jì)(程序員的數(shù)學(xué)3),這三本可以有效補(bǔ)充我們所需要的線性代數(shù)和概率統(tǒng)計(jì)知識(shí)。
- 《周志華-機(jī)器學(xué)習(xí)-清華大學(xué)出版社》,可以作為案頭的參考書,類似于教材,如果一章一章看的話是比較枯燥的。建議有需求的時(shí)候看,書中有很多公式和基礎(chǔ)知識(shí):https://book.douban.com/subject/26708119/
- 《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》,從名字中就可以看出來,這本書主要是將利用python程序來編寫機(jī)器學(xué)習(xí)相關(guān)算法的,講解公式比較少,更多的是實(shí)戰(zhàn)代碼:https://book.douban.com/subject/24703171/
- 《深度學(xué)習(xí)-人名郵電出版社》,同樣作為案頭的參考書,書中的內(nèi)容很詳實(shí),前幾章介紹了深度學(xué)習(xí)需要的機(jī)器學(xué)習(xí)只是基礎(chǔ),在之后開始講解深度學(xué)習(xí)的一系列知識(shí)以及公式,基本現(xiàn)在所用的大部分深度學(xué)習(xí)基礎(chǔ)算法上面都有講,偽代碼和公式并存:https://book.douban.com/subject/27087503/
- 李航教授的《統(tǒng)計(jì)學(xué)習(xí)方法》,這本書配合機(jī)器學(xué)習(xí)西瓜書看大概可以覆蓋99%的機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí),但同樣這本書只是講解一些原理和公式,最好還是結(jié)合實(shí)戰(zhàn)來進(jìn)行練習(xí)。
視頻資料
- 吳恩達(dá)系列:網(wǎng)上所說吳恩達(dá)的課程一般是這兩個(gè):一個(gè)是Coursera上的machine-learning|Coursera,另一個(gè)則是斯坦福大學(xué)課程:cs229:Maching Learning,這兩門課都是對(duì)機(jī)器學(xué)習(xí)相關(guān)的數(shù)學(xué)知識(shí)進(jìn)行講解,前者比后者簡(jiǎn)單一些,這門課程涉及到的公式較多而工程實(shí)踐講解很少,可能看起來比價(jià)枯燥但是對(duì)于打基礎(chǔ)還是很重要的。如果對(duì)英文不是很熟悉或者看視頻加載慢(視頻有時(shí)需要翻墻),可以考慮看國內(nèi)的搬運(yùn):吳恩達(dá)給你的人工智能第一課、網(wǎng)易斯坦福機(jī)器學(xué)習(xí)吳恩達(dá)公開課。
另外吳恩達(dá)最近打算新出一本結(jié)合工程實(shí)踐和數(shù)學(xué)講解的一本書,完全免費(fèi)只需要訂閱即可獲取,有興趣的可以看這里。 - 臺(tái)大李宏毅機(jī)器學(xué)深度學(xué)習(xí)課程:http://speech.ee.ntu.edu.tw/~tlkagk/talk.html, 比較出名的中文機(jī)器學(xué)習(xí)課程,講課很用心,講解使用的例子也比較生動(dòng)有趣,講課幽默詼諧,知識(shí)點(diǎn)和興趣并存,同樣推薦。
- cs231n:斯坦福大學(xué)的深度學(xué)習(xí)課程:http://cs231n.stanford.edu/,可以說這是全網(wǎng)最好,干貨最多的深度學(xué)習(xí)課程,從最基本的分類算法進(jìn)行講解,講解了神經(jīng)網(wǎng)絡(luò)所需要的所有基礎(chǔ)知識(shí),也包含了深度學(xué)習(xí)中幾個(gè)經(jīng)典的神經(jīng)網(wǎng)絡(luò)架構(gòu)(VggNet、ResNet)、幾個(gè)比較出名的深度學(xué)習(xí)應(yīng)用,并且對(duì)比多個(gè)深度學(xué)習(xí)框架,最重要的是,課后作業(yè)很值得做,有一定難度而且可以學(xué)到很多重點(diǎn)。總之這門課強(qiáng)烈推薦。
- 優(yōu)達(dá)學(xué)城系列,優(yōu)達(dá)學(xué)城的課以工程示例優(yōu)秀著稱,每個(gè)課程最后包含的工程大都有趣而且適用,例如預(yù)測(cè)房價(jià)、小狗品種分類、生成電影劇本等。課程數(shù)量多但是每節(jié)很短,每小節(jié)都有問題需要回答,也有很多附帶知識(shí)供你學(xué)習(xí),雖然有些知識(shí)講解可能不是很深,但是很適合入門。只是有一點(diǎn)…這些課不是免費(fèi)的,簡(jiǎn)單說一下,深度學(xué)習(xí)課程分兩個(gè)學(xué)期:第一學(xué)期3299元,第二學(xué)期3999。大部分人都負(fù)擔(dān)不起,不過我這里有錄制版,大家可以免費(fèi)下載:機(jī)器學(xué)習(xí):鏈接:https://pan.baidu.com/s/1-nyrPm_EiVnQutFLxTmnyw 密碼:dll1,深度學(xué)習(xí):鏈接:https://pan.baidu.com/s/1jHhBTu5QW8X4JK_mQyU4zQ 密碼:o24y。另外優(yōu)達(dá)學(xué)城除了機(jī)器學(xué)習(xí)深度學(xué)習(xí)有一些免費(fèi)的課程也很不錯(cuò),大家可以去看看。
關(guān)于學(xué)習(xí)成本(配置)
這個(gè)是老生常談的問題,知乎上各路神仙說法紛紜,一千個(gè)讀者一千個(gè)哈姆雷特。我當(dāng)初也遇到過這樣的問題,選擇了一段時(shí)間,在這里總結(jié)一下。
如果你的方向是機(jī)器學(xué)習(xí)部分(不涉及神經(jīng)網(wǎng)絡(luò),或者神經(jīng)網(wǎng)絡(luò)的層數(shù)不是很高的時(shí)候)對(duì)計(jì)算機(jī)的要求不是很高,普通筆記本電腦即可。帶不帶顯卡都無所謂。但是如果你主要方向是深度學(xué)習(xí),需要處理圖像或者視頻信息,尤其當(dāng)你設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)的層數(shù)比較多的時(shí)候(層數(shù)深即深度學(xué)習(xí)),顯卡的作用就會(huì)體現(xiàn)出來,顯卡跑深度學(xué)習(xí)代碼是對(duì)于顯卡的選擇建議(前面是型號(hào),后面是顯存大小):入門GTX 1060 6g、性價(jià)比最高GTX 1070 8g,需要深入研究GTX 1080ti 11g,當(dāng)然你可以選泰坦顯卡(3w+)或者多顯卡,總之財(cái)富限制想象力。如果電腦上已經(jīng)有Nvidia的顯卡也是可以的,但要看計(jì)算能力是否足夠(一般capacity大于4.0勉強(qiáng)入門)是否可以使用,在這里查看你的顯卡的計(jì)算能力(compute capacity)夠不夠吧:https://developer.nvidia.com/cuda-gpus。
ps:因?yàn)橥诘V等各種因素等顯卡漲價(jià)較為厲害,該買還是得買,要將財(cái)富轉(zhuǎn)化為生產(chǎn)力。
附一個(gè)cpu、gpu測(cè)試深度學(xué)習(xí)運(yùn)算速度分析:https://github.com/jcjohnson/cnn-benchmarks。
總結(jié)
以上是生活随笔為你收集整理的一篇文章解决机器学习,深度学习入门疑惑的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 还纠结选机器学习还是深度学习?看完你就有
- 下一篇: 机器学习实战:支持向量机