深度学习教程(1) | 深度学习概论(吴恩达·完整版)
- 作者:韓信子@ShowMeAI
 - 教程地址:https://www.showmeai.tech/tutorials/35
 - 本文地址:https://www.showmeai.tech/article-detail/212
 - 聲明:版權(quán)所有,轉(zhuǎn)載請聯(lián)系平臺與作者并注明出處
 - 收藏ShowMeAI查看更多精彩內(nèi)容
 
本系列為吳恩達老師《深度學(xué)習(xí)專項課程(Deep Learning Specialization)》學(xué)習(xí)與總結(jié)整理所得,對應(yīng)的課程視頻可以在這里查看。
1.歡迎(Welcome)
深度學(xué)習(xí)改變了傳統(tǒng)互聯(lián)網(wǎng)業(yè)務(wù),例如網(wǎng)絡(luò)搜索和廣告。但是深度學(xué)習(xí)同時也使得許多新產(chǎn)品和企業(yè)以很多方式幫助人們,從獲得更好的健康關(guān)注。
深度學(xué)習(xí)在醫(yī)療(讀取X光圖像)、個性化教育、精準(zhǔn)化農(nóng)業(yè)、自動駕駛等等方面表現(xiàn)都有著不錯的表現(xiàn)。
有很多人想要學(xué)習(xí)深度學(xué)習(xí)的這些工具,并應(yīng)用它們來完成一些智能化應(yīng)用,吳恩達老師的《深度學(xué)習(xí)專業(yè)課程》是一個非常好的資源和學(xué)習(xí)起點。
AI是新的生產(chǎn)力。大約在一百年前,我們社會的電氣化改變了每個主要行業(yè),從交通運輸行業(yè)到制造業(yè)、醫(yī)療保健、通訊等方面,如今我們見到了AI明顯的令人驚訝的能量,帶來了同樣巨大的轉(zhuǎn)變。顯然,AI的各個分支中,發(fā)展的最為迅速的就是深度學(xué)習(xí)。因此現(xiàn)在,深度學(xué)習(xí)是在科技世界中廣受歡迎的一種技術(shù)。
以下為吳恩達老師深度學(xué)習(xí)系列課程,系列課程對應(yīng)幾門課程,它們主要內(nèi)容和收益如下:
1.1 第一門課要點
專項課程中第1門課是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí),內(nèi)容主要是神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識,可以學(xué)習(xí)到:
- 如何建立神經(jīng)網(wǎng)絡(luò)(包含一個深度神經(jīng)網(wǎng)絡(luò))
 - 如何在數(shù)據(jù)上面訓(xùn)練他們
 - 一個小案例:用一個深度神經(jīng)網(wǎng)絡(luò)進行辨認貓
 
對應(yīng)的ShowMeAI總結(jié)文章為:
- 2.神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
 - 3淺層神經(jīng)網(wǎng)絡(luò)
 - 4.深層神經(jīng)網(wǎng)絡(luò)
 
1.2 第二門課要點
專項課程中第2門課是深度學(xué)習(xí)方面的實踐,學(xué)習(xí)嚴密地構(gòu)建神經(jīng)網(wǎng)絡(luò),如何真正讓它表現(xiàn)良好,可以學(xué)習(xí)到:
- 超參數(shù)調(diào)整
 - 正則化技術(shù)
 - 診斷偏差和方差
 - 高級優(yōu)化算法(如Momentum和Adam優(yōu)化算法)
 
對應(yīng)的ShowMeAI總結(jié)文章為:
- 5.深度學(xué)習(xí)的實用層面
 - 6.神經(jīng)網(wǎng)絡(luò)優(yōu)化算法
 - 7.網(wǎng)絡(luò)優(yōu)化:超參數(shù)調(diào)優(yōu)、正則化、批歸一化和程序框架
 
1.3 第三門課要點
專項課程中第3門課是結(jié)構(gòu)化機器學(xué)習(xí)工程,會涵蓋構(gòu)建機器學(xué)習(xí)系統(tǒng)的策略。可以學(xué)習(xí)到:
- 切分數(shù)據(jù)的方式(訓(xùn)練集、驗證集,測試集)
 - 實驗與診斷方法
 - 端對端深度學(xué)習(xí)
 - 改善深度學(xué)習(xí)的一些方法
 
對應(yīng)的ShowMeAI總結(jié)文章為:
- 8.AI應(yīng)用實踐策略(上)
 - 9.AI應(yīng)用實踐策略(下)
 
1.4 第四門課要點
專項課程中第4門課是卷積神經(jīng)網(wǎng)絡(luò),涵蓋計算機視覺中最常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)CNN(s),可以學(xué)習(xí)到:
- 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
 - 典型CNN模型
 - 計算機視覺圖像分類
 - 計算機視覺目標(biāo)檢測
 - 人臉識別
 - 圖像風(fēng)格轉(zhuǎn)換
 
對應(yīng)的ShowMeAI總結(jié)文章為:
- 10.卷積神經(jīng)網(wǎng)絡(luò)解讀
 - 11.經(jīng)典CNN網(wǎng)絡(luò)實例詳解
 - 12.CNN應(yīng)用:目標(biāo)檢測
 - 13.CNN應(yīng)用:人臉識別和神經(jīng)風(fēng)格轉(zhuǎn)換
 
1.5 第五門課要點
專項課程中第5門課是序列建模,涵蓋RNN神經(jīng)網(wǎng)絡(luò)及自然語言處理問題和解決方案。可以學(xué)習(xí)到:
- 序列建模
 - RNN循環(huán)神經(jīng)網(wǎng)絡(luò)
 - 詞嵌入(word2vec、GloVe)
 - 情感分析
 - 注意力機制
 - 機器翻譯
 
對應(yīng)的ShowMeAI總結(jié)文章為:
- 14.序列模型與RNN網(wǎng)絡(luò)
 - 15.自然語言處理與詞嵌入
 - 16.Seq2seq序列模型和注意力機制
 
2.什么是神經(jīng)網(wǎng)絡(luò)?(What is a Neural Network)
我們常常用深度學(xué)習(xí)這個術(shù)語來指訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程。有時它指的是特別大規(guī)模的神經(jīng)網(wǎng)絡(luò)訓(xùn)練。
2.1 房價預(yù)測案例
吳恩達老師的課程從一個房價預(yù)測的例子開始。
假設(shè)我們有一個數(shù)據(jù)集,它包含了六棟房子的信息(房屋面積和房屋價格)。我們想要擬合一個函數(shù),根據(jù)房屋面積來預(yù)測房屋價格。
通過線性回歸簡單的實現(xiàn)方式是一條直線。因為價格永遠不會是負數(shù),因此我們調(diào)整一下直線,讓它彎曲一點,最終在原點結(jié)束。這條粗的藍線就是最終的函數(shù),可以根據(jù)房屋面積預(yù)測價格。可以看到,函數(shù)的一部分取值為0,而另一部分的直線對數(shù)據(jù)的擬合效果很好。
2.2 ReLU激活函數(shù)
我們把房屋面積(Size)作為輸入(xxx),通過一個節(jié)點(一個小圓圈)最終輸出了房屋價格(Price,yyy)。這個小圓圈實現(xiàn)了上面的折線表達式,視作一個單獨的神經(jīng)元(neuron),這就是最簡單的神經(jīng)網(wǎng)絡(luò)。
這個折線表達式就被稱作ReLU激活函數(shù),全稱為Rectified Linear Unit(修正線性單元),其中rectify(修正)可以理解成f(x)=max(0,x)f(x) = max(0,x)f(x)=max(0,x)。在后續(xù)的神經(jīng)網(wǎng)絡(luò)教程中,大家會頻繁地看到這個函數(shù)。
上圖所示為最簡單的神經(jīng)網(wǎng)絡(luò),更復(fù)雜的網(wǎng)絡(luò)可以通過這個結(jié)構(gòu)堆疊得到。你可以把這些神經(jīng)元想象成單獨的樂高積木,通過「搭積木」的方式可以完成一個更復(fù)雜的神經(jīng)網(wǎng)絡(luò)。
2.3 房價預(yù)測案例 <更多特征>
假如問題更復(fù)雜一些,我們有房子的更多信息:
- 房屋面積(Size)
 - 臥室數(shù)量(#Bedrooms)
 - 郵政編碼(Zip Code)
 - 周邊富裕程度(Wealth)
 
那么問題升級為下圖所示的情況:
圖上每一個小圓圈都可以是ReLU的一部分,也就是修正線性單元,或者其它非線性的函數(shù)。
- 基于房屋面積和臥室數(shù)量,可以估算家庭人口(Family Size)。
 - 基于郵編,可以估測步行方便程度(Walkability)或者學(xué)校質(zhì)量(School Quality)。
 
在這個情景里,家庭人口、步行方便程度以及學(xué)校質(zhì)量都能幫助預(yù)測房屋價格。
我們把上圖的神經(jīng)元疊加在一起,就有了一個稍微大一點的神經(jīng)網(wǎng)絡(luò)。其中,xxx是4個特征輸入(房屋大小、臥室數(shù)量、郵政編碼和富裕程度), yyy是嘗試預(yù)測的價格。
2.4 隱藏單元(Hidden Units)
我們注意到,這個網(wǎng)絡(luò)中的隱藏單元(圖示橙色的小圓圈),每個都是從4個輸入特征來獲得自身的輸入。
網(wǎng)絡(luò)中第一個橙色結(jié)點代表家庭人口。注意,我們不會說這個結(jié)點取決于x1x_1x1?和x2x_2x2?,而是由神經(jīng)網(wǎng)絡(luò)自己決定這個結(jié)點是什么,是由4個輸入進行計算得到的。
當(dāng)我們給到足夠多的xxx和yyy數(shù)據(jù)(也就是足夠多的訓(xùn)練樣本)時,神經(jīng)網(wǎng)絡(luò)可以精準(zhǔn)地學(xué)習(xí)從xxx到yyy的映射函數(shù)。
3.用神經(jīng)網(wǎng)絡(luò)進行監(jiān)督學(xué)習(xí)(Supervised Learning with Neural Networks)
上面的任務(wù)是典型的監(jiān)督學(xué)習(xí),我們的數(shù)據(jù)中包含特征xxx和標(biāo)簽yyy(詳見 圖解機器學(xué)習(xí) | 機器學(xué)習(xí)基礎(chǔ)知識)。房價預(yù)測的例子中,xxx是房屋特征,yyy是房屋價格。
同樣的監(jiān)督學(xué)習(xí)方法,借助于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),已經(jīng)被高效應(yīng)用到很多場景,如下圖所示:
3.1 應(yīng)用
(1) Online Advertising 在線廣告
如今應(yīng)用深度學(xué)習(xí)獲利最多的一個領(lǐng)域,就是在線廣告。
神經(jīng)網(wǎng)絡(luò)非常擅長預(yù)測你是否會點開推薦的網(wǎng)頁/視頻廣告,通過廣告與用戶信息建模,推薦最有可能點擊的廣告,進而給大型的在線廣告公司帶來豐厚的收入。
(2) Photo tagging 照片識別打標(biāo)
得益于深度學(xué)習(xí),計算機視覺在過去的幾年里也取得了長足的進步。目前大家的相冊照片,可以使用自動標(biāo)注和智能識別的功能。
(3) Speech recognition 語音識別
深度學(xué)習(xí)最近在語音識別方面的進步也極其巨大,如今語音識別可以做到很好的一個效果程度,大家日常用的手機語音助手,都是它的典型應(yīng)用。
(4) Machine translation 機器翻譯
得益于深度學(xué)習(xí),機器翻譯也有很大的發(fā)展。如今大家可以輕松地借助于機器翻譯,閱讀不同語種的信息內(nèi)容。
(5) Autonomous driving 無人駕駛
未來AI的一個極大應(yīng)用場景就是自動駕駛技術(shù),可以通過訓(xùn)練一個神經(jīng)網(wǎng)絡(luò),來告訴汽車在馬路上面具體的位置,進而幫助自動駕駛系統(tǒng)來判斷和控制。
3.2 神經(jīng)網(wǎng)絡(luò)的類型
實際神經(jīng)網(wǎng)絡(luò)有著不同的結(jié)構(gòu),而這些典型的結(jié)構(gòu),也適用于不同的場景,例如:
(1) 對于房地產(chǎn)和在線廣告來說,可能是相對標(biāo)準(zhǔn)一些的神經(jīng)網(wǎng)絡(luò)(比如全連接的前饋神經(jīng)網(wǎng)絡(luò),或者wide&deep這種組合網(wǎng)絡(luò))。
(2) 對于圖像應(yīng)用,我們經(jīng)常在神經(jīng)網(wǎng)絡(luò)上使用卷積(Convolutional Neural Network),通常縮寫為CNN。
(3) 對于序列數(shù)據(jù)(例如音頻和文本,含有時間成分),經(jīng)常使用RNN,一種遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)。
- 音頻隨時間播放,所以音頻被表示為一維時間序列(one-dimensional time series,或稱one-dimensional temporal sequence)
 - 語言(英語的字母或漢語的漢字)都是逐個出現(xiàn)的,所以語言最自然的表達方式也是序列數(shù)據(jù),通常此類問題會使用更復(fù)雜的RNNs結(jié)構(gòu)。
 
(4) 對于更復(fù)雜的應(yīng)用(比如自動駕駛),其中的圖片任務(wù)可以使用CNN卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。但是雷達信息卻需要使用不同的網(wǎng)絡(luò)結(jié)構(gòu),這些結(jié)構(gòu)可能是定制的、復(fù)雜的或混合的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
3.3 結(jié)構(gòu)圖示
上面提到的典型的幾類網(wǎng)絡(luò),結(jié)構(gòu)示意圖如下。
- 上圖左:一個標(biāo)準(zhǔn)的神經(jīng)網(wǎng)絡(luò)
 - 上圖右上:一個卷積神經(jīng)網(wǎng)絡(luò)(CNN通常用于圖像數(shù)據(jù))
 - 上圖右下:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN通常用于序列數(shù)據(jù))
 
3.4 結(jié)構(gòu)化數(shù)據(jù)與非結(jié)構(gòu)化數(shù)據(jù)
AI算法的有效應(yīng)用,依賴于數(shù)據(jù),我們先對數(shù)據(jù)做一個了解。首先數(shù)據(jù)可以分為結(jié)構(gòu)化數(shù)據(jù)和非結(jié)構(gòu)化數(shù)據(jù)。
(詳見 機器學(xué)習(xí)實戰(zhàn) | Python機器學(xué)習(xí)算法應(yīng)用實踐 對于兩類數(shù)據(jù)的不同建模處理方式和 機器學(xué)習(xí)實戰(zhàn) | 機器學(xué)習(xí)特征工程最全解讀 中對于結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的區(qū)分處理)
(1) 結(jié)構(gòu)化數(shù)據(jù)
結(jié)構(gòu)化數(shù)據(jù)通常指的是行列表格狀的數(shù)據(jù),一般存儲在數(shù)據(jù)庫中。
- 例如在房價預(yù)測中,數(shù)據(jù)庫中存儲的數(shù)據(jù)集,有專門的幾列數(shù)據(jù)字段指代臥室的大小和數(shù)量,這就是結(jié)構(gòu)化數(shù)據(jù)。
 - 或預(yù)測用戶是否會點擊廣告,你可能會得到關(guān)于用戶的信息,比如年齡以及關(guān)于廣告的一些信息,然后對你的預(yù)測分類標(biāo)注。
 
這就是結(jié)構(gòu)化數(shù)據(jù),意思是每個特征(比如說房屋大小臥室數(shù)量,或者是一個用戶的年齡)都有一個很好的定義。
(2) 非結(jié)構(gòu)化數(shù)據(jù)
非結(jié)構(gòu)化數(shù)據(jù)是指比如音頻、圖像或文本等數(shù)據(jù)內(nèi)容。這里的原始特征可能是圖像中的像素值或文本中的單個單詞。
處理非結(jié)構(gòu)化數(shù)據(jù)是相對較難的。傳統(tǒng)的機器學(xué)習(xí)模型處理起來效果有限,而深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)非常擅長做這個事情。計算機借助神經(jīng)網(wǎng)絡(luò)能更好地理解和解釋非結(jié)構(gòu)化數(shù)據(jù)。語音識別、圖像識別、自然語言文字處理,這些領(lǐng)域的應(yīng)用都有翻天覆地的提升。
4.為什么深度學(xué)習(xí)會興起?(Why is Deep Learning taking off?)
推動深度學(xué)習(xí)變得如此熱門的主要因素包括數(shù)據(jù)規(guī)模、計算能力及算法模型的創(chuàng)新。
4.1 為什么深度學(xué)習(xí)能夠如此有效?
為什么深度學(xué)習(xí)能夠如此有效呢?要回答這個問題,可以從數(shù)據(jù)量說起。如下圖,橫軸畫一條直線,繪制出所有任務(wù)的數(shù)據(jù)量(Amount of Data);豎軸畫出機器學(xué)習(xí)算法的性能(Performance),例如垃圾郵件過濾、廣告點擊預(yù)測、自動駕駛時位置判斷等任務(wù)的準(zhǔn)確率。
根據(jù)圖像可以發(fā)現(xiàn),一個傳統(tǒng)機器學(xué)習(xí)算法的性能,作為數(shù)據(jù)量的函數(shù),是一條曲線。如圖中所示,一開始,算法性能會隨著數(shù)據(jù)的增多而上升;但一段變化后,它的性能就會達到瓶頸而難以提升。過去十年,我們遇到的很多問題只有相對較少的數(shù)據(jù)量。但假設(shè)橫軸拉得很長很長,算法將不知道如何處理規(guī)模巨大的數(shù)據(jù)。
數(shù)字化社會帶來了巨大的數(shù)據(jù)量提升。相比于傳統(tǒng)機器學(xué)習(xí)模型,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)更能在海量數(shù)據(jù)上發(fā)揮作用。下圖展示的是不同的算法在不同數(shù)據(jù)規(guī)模下的表現(xiàn):
- 如果你訓(xùn)練一個小型的神經(jīng)網(wǎng)絡(luò)(Small NN),那么這個性能可能會像黃色曲線表示那樣。
 - 如果你訓(xùn)練一個稍微大一點的神經(jīng)網(wǎng)絡(luò),比如說一個中等規(guī)模的神經(jīng)網(wǎng)絡(luò)(Medium NN),它在某些數(shù)據(jù)上面的性能也會更好一些,如藍色曲線。
 - 如果你訓(xùn)練一個非常大的神經(jīng)網(wǎng)絡(luò)(Large NN),它就會變成綠色曲線那樣,并且保持變得越來越好。
 
因此,想獲得橙色點較好的性能體現(xiàn),需要具備以下兩個條件:
- 需要訓(xùn)練一個規(guī)模足夠大的神經(jīng)網(wǎng)絡(luò),以發(fā)揮數(shù)據(jù)規(guī)模巨大的優(yōu)點
 - 需要海量的數(shù)據(jù)支撐
 
我們經(jīng)常說「規(guī)模驅(qū)動著深度學(xué)習(xí)的進步(Scale Drives Deep Learning Progress)」,這里的「規(guī)模」同時也指神經(jīng)網(wǎng)絡(luò)的規(guī)模——我們需要一個帶有許多隱藏單元的神經(jīng)網(wǎng)絡(luò),以及許多的參數(shù)及關(guān)聯(lián)性。就如同需要大規(guī)模的數(shù)據(jù)一樣。
我們再回到上面這個圖,在這個圖形區(qū)域的左邊(Small Training Sets),各種算法之間的效果優(yōu)劣并不完全確定,最終的效果很多時候取決于工程構(gòu)建特征的能力以及算法處理方面的一些細節(jié)(詳見 機器學(xué)習(xí)實戰(zhàn) | 機器學(xué)習(xí)特征工程最全解讀)。
而在上圖的右邊區(qū)域,我們可以看到隨著數(shù)據(jù)量的增加,很多時候有著龐大參數(shù)的大型神經(jīng)網(wǎng)絡(luò)更能有優(yōu)異的表現(xiàn)。
在深度學(xué)習(xí)萌芽的初期,數(shù)據(jù)的規(guī)模以及算力/計算量,局限在我們對于訓(xùn)練一個特別大的神經(jīng)網(wǎng)絡(luò)的能力,無論是在CPU還是GPU上面,那都使得我們?nèi)〉昧司薮蟮倪M步。但是漸漸地,尤其是在最近這幾年,我們也見證了算法方面的極大創(chuàng)新。許多算法方面的創(chuàng)新,一直是在嘗試著使得神經(jīng)網(wǎng)絡(luò)運行的更快。
4.2 sigmoid → ReLU
講一個具體的例子,神經(jīng)網(wǎng)絡(luò)方面的一個巨大突破是從Sigmoid函數(shù)轉(zhuǎn)換到ReLU函數(shù)。
我們在過往的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,經(jīng)常會使用Sigmoid函數(shù),這個函數(shù)在左右兩側(cè)的位置梯度會接近零,所以學(xué)習(xí)的速度會變得非常緩慢,而通過改變這個被叫做激活函數(shù)的ReLU函數(shù)(修正線性單元)可以很大程度解決這個問題。
ReLU它的梯度對于所有輸入的負值都是零,因此梯度更加不會趨向逐漸減少到零。能夠使得我們訓(xùn)練神經(jīng)網(wǎng)絡(luò)的梯度下降(gradient descent)算法運行的更快。
這是一個簡單的算法創(chuàng)新例子。但是根本上算法創(chuàng)新所帶來的影響,實際上是對計算帶來的優(yōu)化。所以有很多像這樣的例子,我們通過改變算法,使得代碼運行的更快,這也使得我們能夠訓(xùn)練規(guī)模更大的神經(jīng)網(wǎng)絡(luò)。
我們實際應(yīng)用神經(jīng)網(wǎng)絡(luò)的過程,和下圖比較一致:
- idea:憑借積累和直覺,對神經(jīng)網(wǎng)絡(luò)架構(gòu)有新的想法。
 - code:嘗試寫代碼實現(xiàn)。
 - experiment:在實驗環(huán)境下測試它的效果,通過參考這個結(jié)果再返回去修改你的神經(jīng)網(wǎng)絡(luò)里面的一些細節(jié)。
 
我們不斷的重復(fù)上述操作,往復(fù)循環(huán)直到得到好的效果的模型網(wǎng)絡(luò)。
5.關(guān)于這門課(About this Course)
吳恩達老師的專項有五門課程,目前正處于第一門課,關(guān)于第一門課的一些細節(jié)如下:
- 第一周:關(guān)于深度學(xué)習(xí)的介紹。在每一周的結(jié)尾也會有十個多選題用來檢驗自己對材料的理解。
 - 第二周:關(guān)于神經(jīng)網(wǎng)絡(luò)的編程知識,了解神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),逐步完善算法并思考如何使得神經(jīng)網(wǎng)絡(luò)高效地實現(xiàn)。從第二周開始做一些編程訓(xùn)練(付費項目),自己實現(xiàn)算法。
 - 第三周:在學(xué)習(xí)了神經(jīng)網(wǎng)絡(luò)編程的框架之后,你將可以編寫一個隱藏層神經(jīng)網(wǎng)絡(luò),所以需要學(xué)習(xí)所有必須的關(guān)鍵概念來實現(xiàn)神經(jīng)網(wǎng)絡(luò)的工作。
 - 第四周:建立一個深層的神經(jīng)網(wǎng)絡(luò)。
 
ShowMeAI系列教程推薦
- 大廠技術(shù)實現(xiàn):推薦與廣告計算解決方案
 - 大廠技術(shù)實現(xiàn):計算機視覺解決方案
 - 大廠技術(shù)實現(xiàn):自然語言處理行業(yè)解決方案
 - 圖解Python編程:從入門到精通系列教程
 - 圖解數(shù)據(jù)分析:從入門到精通系列教程
 - 圖解AI數(shù)學(xué)基礎(chǔ):從入門到精通系列教程
 - 圖解大數(shù)據(jù)技術(shù):從入門到精通系列教程
 - 圖解機器學(xué)習(xí)算法:從入門到精通系列教程
 - 機器學(xué)習(xí)實戰(zhàn):手把手教你玩轉(zhuǎn)機器學(xué)習(xí)系列
 - 深度學(xué)習(xí)教程:吳恩達專項課程 · 全套筆記解讀
 - 自然語言處理教程:斯坦福CS224n課程 · 課程帶學(xué)與全套筆記解讀
 - 深度學(xué)習(xí)與計算機視覺教程:斯坦福CS231n · 全套筆記解讀
 
推薦文章
- ShowMeAI 深度學(xué)習(xí)教程(1) | 深度學(xué)習(xí)概論
 - ShowMeAI 深度學(xué)習(xí)教程(2) | 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
 - ShowMeAI 深度學(xué)習(xí)教程(3) | 淺層神經(jīng)網(wǎng)絡(luò)
 - ShowMeAI 深度學(xué)習(xí)教程(4) | 深層神經(jīng)網(wǎng)絡(luò)
 - ShowMeAI 深度學(xué)習(xí)教程(5) | 深度學(xué)習(xí)的實用層面
 - ShowMeAI 深度學(xué)習(xí)教程(6) | 神經(jīng)網(wǎng)絡(luò)優(yōu)化算法
 - ShowMeAI 深度學(xué)習(xí)教程(7) | 網(wǎng)絡(luò)優(yōu)化:超參數(shù)調(diào)優(yōu)、正則化、批歸一化和程序框架
 - ShowMeAI 深度學(xué)習(xí)教程(8) | AI應(yīng)用實踐策略(上)
 - ShowMeAI 深度學(xué)習(xí)教程(9) | AI應(yīng)用實踐策略(下)
 - ShowMeAI 深度學(xué)習(xí)教程(10) | 卷積神經(jīng)網(wǎng)絡(luò)解讀
 - ShowMeAI 深度學(xué)習(xí)教程(11) | 經(jīng)典CNN網(wǎng)絡(luò)實例詳解
 - ShowMeAI 深度學(xué)習(xí)教程(12) | CNN應(yīng)用:目標(biāo)檢測
 - ShowMeAI 深度學(xué)習(xí)教程(13) | CNN應(yīng)用:人臉識別和神經(jīng)風(fēng)格轉(zhuǎn)換
 - ShowMeAI 深度學(xué)習(xí)教程(14) | 序列模型與RNN網(wǎng)絡(luò)
 - ShowMeAI 深度學(xué)習(xí)教程(15) | 自然語言處理與詞嵌入
 - ShowMeAI 深度學(xué)習(xí)教程(16) | Seq2seq序列模型和注意力機制
 
總結(jié)
以上是生活随笔為你收集整理的深度学习教程(1) | 深度学习概论(吴恩达·完整版)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: jmeter面试题及答案(jmeter接
 - 下一篇: Jmeter 面试题