顶尖机器学习学习路线,6个月让你的技术成为行业TOP5%
AI是一門入門簡單,但想深入卻很難的學科,這也是為什么AI高端人才一直非常緊缺的重要原因。在AI領域技術領域,我們可以說機器學習功底決定了一個人的上限也不為過。為什么?機器學習就像物理學中的數學,如果你對數學沒有很好地掌握,想深入物理學科是不太可能的。放到AI領域,不管你做NLP方向也好,還是CV方向也好,只要深入下去,都會發現跟機器學習息息相關。
在工作中,你是否能夠利用1-3天的時間來復現任意頂會的文章?是否能夠按照實際的場景靈活提出新的模型,或者提出對現有模型的改造?實際上這些是核心競爭力,同時是走向高端人才必須要經歷的門檻。雖然很有挑戰,但一旦過了這個門檻你就會發現你是市場中的TOP5%.
所以我們設計了這樣的一門課程,目的就是一個:讓你有機會成為市場中的TOP5%。我們希望通過這樣的一門課程來增強對機器學習的深入理解,掌握背后的每個細節,這一點很重要。這門課程主要包含了凸優化、圖神經網絡、深度貝葉斯以及強化學習,也是機器學習領域比較主流的四大領域。每個領域都有一定的門檻,但真正經歷過之后大概率會驚訝地發現自己成長了不少。?
下面對每個部分的內容詳細做了介紹,感興趣的朋友們可以來咨詢更多。?
1. 凸優化部分
凸優化在人工智能領域有著舉足輕重的地位,對于模型的訓練實際上等同于對模型的優化。我們平時使用的sgd, adam, adagrad, l-bfgs這類算法均屬于優化范疇。在AI的應用中,當我們構造了目標函數之后,接下來的工作就是優化部分。那為什么凸優化這么重要呢?設想一下,如果你想設計一個新的模型,或者在原有的模型基礎做一些創新,那對于新構造的目標函數,你需要懂得如何去優化,以及用什么樣的優化算法才能解出更好的局部最優解。所以,對于想進階的AI工程師來說,凸優化是必備課,必須要掌握的內容。
課程大綱
第一周:凸優化基礎
學習目標:了解凸優化技術以及應用場景,理解凸優化技術的類別、技術范疇、以及能把凸優化技術跟生活和工作中的問題聯系在一起。同時,深入理解線性規劃技術,以及它在不同場景中的應用,并能夠實現。
學習安排:
- 從優化角度理解機器學習
- 凸優化的重要性
- 常見的凸優化問題
- 線性規劃以及Simplex Method
- Stochastic LP
- P,NP,NPC問題
- 案例分析:運輸中的優化問題
- 案例分析:打車中的優化問題
- 案例分析:投放運營中的優化問題
第二周:凸優化基礎
學習目標:學習如何識別凸函數和如果判定凸函數,這里會涉及到三種不同的方法以及多個案例講解。同時,本周能學到二次規劃相關的知識,以及能夠用二次規劃去模擬的實際問題以及求解方式。?
學習安排:
- 如何判斷一個集合是凸集
- 各類凸集以及證明
- 方法1:Prove by Definition
-?方法2:First-order Convexity
- 方法3:Second-order Convexity
- 二次規劃問題以及凸函數證明
-?最小二乘問題詳解
- 案例分析:WDM距離計算
-?案例分析:股票投資組合優化問題
第三周:常見的凸優化問題
學習目標:學習如何識別凸函數和如果判定凸函數,這里會涉及到三種不同的方法以及多個案例講解。同時,本周能學到二次規劃相關的知識,以及能夠用二次規劃去模擬的實際問題以及求解方式。?
學習安排:
- 常見的凸優化問題類別
- 半正定規劃問題(SDP)
- 幾何規劃問題(GP)
-?非凸函數的優化方法
- 非凸函數的松弛華
- 整數規劃以及松弛華
-?案例分析:Set Cover問題
-?案例分析:Vertex Cover問題
-?案例分析:0-1 Knapsack問題
-?案例分析:Cutting-stock問題
-?案例分析:Max-cut問題
第四周:優化與量化投資
學習目標:作為一個案例章節,主要學習優化在量化投資中的應用,同時也學習常見的量化投資策略。這一章的學習一方面可以帶來對新的領域的學習,同時也給其他領域的問題提供思路。??
學習安排:
- 量化投資介紹
- 如何閱讀K線圖
- 基于規則的量化策略
- 基于機器學習模型的量化策略
- 基于LP、QP優化的量化策略
- Efficient Frontier, Sharp Ratio
- 量化平臺介紹
第五周:對偶(Duality)
學習目標:掌握對偶相關的知識,對偶可以算是優化領域最為經典的一套方法論。學完本部分之后,可以對已有的模型做改進,同時能夠靈活做對偶轉換。深入理解對偶領域中的Lower Bound Property,KKT條件,Weak Duality等基本理論。一句話,Duality是優化的精華!?
學習安排:
- 拉格朗日對偶函數
- 對偶的幾何意義
- Lower Bound Property
- Weak and Strong Duality
- KKT條件
- LP、QP、SDP的對偶轉換
- 對偶的一些應用場景
- 經典機器學習模型的對偶轉換
- 案例分析:SVM的完整對偶轉換
- 案例分析:不同損失函數的分析
第六周:對偶(Duality)
學習目標:掌握對偶相關的知識,對偶可以算是優化領域最為經典的一套方法論。學完本部分之后,可以對已有的模型做改進,同時能夠靈活做對偶轉換。深入理解對偶領域中的Lower Bound Property,KKT條件,Weak Duality等基本理論。一句話,Duality是優化的精華!?
學習安排:
- Gradient Descent
- GD的收斂分析
- Subgradient Method
- Proximal Gradient Descent
- Projected Gradient Descent
- Stochastic Gradient Descent
- Newton's Method
- Quasi-Newton Method
- L-BFGS
- 案例分析:ADMM的分析
- 案例分析:Adadelta, Adam的比較
第七周:優化技術進階
學習目標:掌握其他主流的優化技術,這些都屬于比較進階的內容,需要前面內容的基礎。主要掌握Interior Point Method,ADMM等模型。
學習安排:
- Mirror Ascent
- 分布式梯度下降法
- Interior Point Method
- ADMM方法
- Sparsity與優化關系
- Combinatorial優化
作業項目:優化與量化投資
項目描述:量化投資作為金融領域一大分支,今年來受到了很大的關注。在這個項目中,我們將使用在課程中已學過的優化技術來搭建買賣策 略,并在平臺上做回測,最終得到策略的效果。這個項目的主要目的有以下幾種:
1. 了解并掌握量化投資領域,雖然跟很多人的工作關系不大,但畢竟是一個新興領域,而且跟 AI 技術的結合比較緊密,強烈建議借此機會學習。
2. 掌握并實戰優化技術,通過編寫真正的策略會真正明白優化技術如何應用在工業界環境中。
3. 基于給定的優化方法,自己試著去改進并創造新的優化方法,讓回測效果更好。
涉及到的技術:量化投資、凸優化
感興趣的請添加咨詢顧問
2. 圖神經網絡:
圖神經網絡是指神經網絡在圖上應用的模型的統稱,根據采用的技術不同和分類方法的不同,又可以分為下圖中的不同種類,例如從傳播的方式來看,圖神經網絡可以分為圖卷積神經網絡(GCN),圖注意力網絡(GAT,縮寫為了跟GAN區分),Graph LSTM等等,本質上還是把文本圖像的那一套網絡結構技巧借鑒過來做了新的嘗試。在本次課上,我們著重學習關于圖卷積技術以及其相關知識,例如:圖論基礎,GCN的卷積由來和詳解,GAT等相關邊嵌入模型,以及GCN在各個方向的應用。
課程大綱
第一周:GNN相關數學基礎(1)
學習目標:掌握圖神經網絡中涉及到的基礎理論,包括不同空間的描述,傅里葉變化以及CNN相關的技術。
學習安排:
-?空間向量和圖論
- Inner Product, Hilbert Space
- 傅里葉變化
- Eigenfunction, Eigenvalue
- CNN的卷積和池化
- 介紹CNN的卷積層
- 如何卷積、信息如何傳遞
- 池化層的作用和基本設計
- 案例分析:各類矩陣分解方法比較
第二周:GNN相關數學基礎(2)
學習目標:掌握圖神經網絡中涉及到的基礎理論,包括不同空間的描述,傅里葉變化以及CNN相關的技術。?
學習安排:
- Subgraph
- Network Motif
- Network Community Detection
- 拉普拉斯算法
- 拉普拉斯矩陣
- SVD,QR分解
- 基于向量機分解
- Block分解
- 拉普拉斯算子和矩陣的數學意義
第三周:圖卷積詳解
學習目標:掌握圖卷積相關的基本知識,這是理解圖神經網絡的根本。在本部分,系統性掌握我們目前常使用的GCN模型是如何得出來的,而不是停留在僅僅使用的層面,這里包括ChebNet等我們需要理解的內容。?
學習安排:
- 圖卷積的幾何意義
- Graph?Filter
- Graph Convolution
- ChebNet
- GCN詳解
- Graph Pooling
- MCMC介紹
- Importance Sampling
- Rejection Sampling?
- 案例分析:基于GCN的推薦
- 案例分析:CNN的權重剪枝
第四周:邊嵌入的圖卷積
學習目標:掌握Spatial類型圖神經網絡,本質上跟GCN的構造方式是不一樣的,但變得越來越流行。本節重點掌握GAT以及Attention如何用在圖神經網絡之中。??
學習安排:
- Spatial Convolution
- Mixture Model Network
- Attention機制
- Graph Attention Networks(GAT)
- Edge Convolution
-?EGCN, Monet
- 近似優化問題
- 減少計算量的介紹
- 案例分析:Attention機制剖析
第五周:圖神經網絡改進與應用
學習目標:掌握改進圖神經網絡,以及它背后的思路。這種能力可以帶給你,今后在工作中遇到類似的問題,你也有能力做一些模型上的改進!
學習安排:
- NRI
-?Relative Position與圖神經網絡拓展
- Relative GCN
-?融入Edge特征
- Knowledge GCN
- ST-GCN
- Graphsage的設計
- Graphsage的應用
- 案例分析:基于圖的文本分類案例
- 案例分析:基于圖的閱讀理解
第六周:其他的常見圖模型
學習目標:除了GCN,GAT等主流圖神經網絡模型之外,還有一些非常流行的圖模型。本節主要幫助學員掌握此類模型,包括Deepwalk, Node2Vec等非常有價值的模型。
學習安排:
- GNN的其他變種
- Deep Walk模型
- Node2Vec模型
- Struc2Vec模型
- HyperGCN模型
- HGCN的設計和應用
作業項目:基于GCN的鏈路預測
項目描述:鏈路預測(Link Prediction)是通過已知的網絡節點以及網絡結構等信息預測網絡中尚未產生連邊的兩個節點之間產生鏈接的可能性。近幾年在線社交網絡發展非常迅速,鏈路預測可以基于當前的網絡結構去預測哪些尚未結交的用戶“應該是朋友”,并將此結果作為“朋友推薦”發送給用戶:如果預測足夠準確,顯然有助于提高相關網站在用戶心目中的地位,從而提高用戶對該網站的忠誠度。另外,鏈路預測的思想和方法,還可以用于在已知部分節點類型的網絡中預測未標簽節點的類型——這可以用于判斷一篇學術論文的類型或者判斷一個手機用戶是否產生了切換運營商(例如從移動到聯通)的念頭。
涉及到的技術:GCN,GAT,KGCN,相似度計算,圖論
感興趣的請添加咨詢顧問
3. 貝葉斯深度學習
貝葉斯深度學習是一項迅速崛起的技術,融合了深度學習和貝葉斯核心技術,使得模型本身可以更好地捕獲數據中的不確定性,同時也能預測出結果的不確定性,同時貝葉斯模型也比較適合小數據量的場景。通過本次課程的學習,學員能夠系統性掌握貝葉斯核心技術,包括MCMC,變分法,VAE, 貝葉斯優化,主題模型,對抗學習,以及如何應用在不同的場景中,既有助于應用層面上的提升,也有助于科研。
課程大綱
第一周:貝葉斯機器學習介紹
學習目標:掌握貝葉斯基本理論、掌握最大似然與貝葉斯估計之間的區別,以及跟集成模型之間的關系。了解貝葉斯學習中的兩種近似算法,MCMC與VI以及區別。同時,掌握如何解決具體的貝葉斯學習問題。?
學習安排:
-?貝葉斯定理
- MLE、MAP以及貝葉斯估計
- 集成模型與貝葉斯方法比較
- 貝葉斯推理中的困難
- 貝葉斯近似算法介紹
- 案例分析:基于貝葉斯的股價預測
- 案例分析:貝葉斯線性回歸
-?案例分析:Probabilistic Programming
- 案例分析:Edwin的使用以及實戰
第二周:貝葉斯樸素貝葉斯與主題模型
學習目標:系統性掌握主題模型的細節,包括它的背景、生成過程以及推理。通過此學習,同時也可以掌握跟貝葉斯樸素貝葉斯之間的聯系,以及在生成邏輯中的差異。??
學習安排:
-?樸素貝葉斯模型回顧
- 貝葉斯樸素貝葉斯的生成過程
- 概率圖的表示
- 主題模型的應用
- 主題模型的生成過程
- 主題模型的應用場景
-?案例分析:LDA的代碼剖析
-?案例分析:基于LDA的文本分析
-?案例分析:Bayesian-LSTM的文本分析
第三周:MCMC采樣技術
學習目標:掌握各類采樣技術,特別是吉布斯采樣,也是MCMC中最為重要的一項技術。另外,完完整整地掌握LDA的所有詳細的推導細節。?
學習安排:
-?MCMC采樣技術介紹
- 狄利克雷分布
- 吉布斯采樣
- 貝葉斯樸素貝葉斯求解
- LDA與吉布斯采樣
- 各類采樣技術介紹
-? Importance Sampling?
-? Rejection Sampling?
-??案例分析:不同采樣技術實現與比較
第四周:變分法技術
學習目標:掌握近似算法中另外一個最核心的技術-變分法。掌握如何設計變分參數、如何優化變分的目標函數以及最后的模型的預測。這里涉及到KL散度、ELBo、和優化等內容。?
學習安排:
- KL散度
- ELBo的構造
-?變分法的目標函數
- 坐標下降法
- 求解LDA的參數
- 變分參數的設計
-?SVI的介紹
-?基于SVI求解LDA
- 案例分析:在推薦領域中的應用
-?案例分析:如何設置合適的prior
第五周:貝葉斯深度學習
學習目標:掌握如何通過貝葉斯深度學習模型去量化模型和數據中的不確定性,主要學習MC Dropout等技術。同時掌握深度生成模型技術以及它們的應用。?
學習安排:
- 貝葉斯深度學習的應用
- 貝葉斯與VAE
-?Reparameterization Trick
-?深度生成模型
-?貝葉斯模型與不確定性分析
-?MC Dropout
-?案例分析:基于VAE的文本生成
第六周:貝葉斯深度學習與自然語言處理
學習目標:掌握貝葉斯深度學習在自然語言處理任務中的應用,包括命名實體識別、文本分析等任務。?同時,掌握Adversial Attack相關的技術,以及它跟貝葉斯方法論之間的關系。?
學習安排:
- 貝葉斯序列模型
-?詞性標注與實體識別
-?Adversial Learning
-?Adversial Attack
-?基于GNN的Adversial Learning
- 案例分析:基于貝葉斯網絡的命名實體識別
-?案例分析:基于貝葉斯深度學習的文本分析
作業項目:基于修改版LDA的情感分析
項目描述:本項目的目的是如何基于LDA來自動抽取文本中的情感,這個項目涉及到對于LDA模型的改造以及對于新模型的推導,具有一定的挑戰。在本項目中,我們會一步步引導學員去設計模型,并對模型做出吉布斯采樣的全部推導過程以及實現環節。通過此項目,學員會親身體會整個貝葉斯模型的設計和訓練過程。
涉及到的技術:主題模型,吉布斯采樣,Collapsed吉布斯采樣,無監督情感分析
感興趣的請添加咨詢顧問
4. 深度強化學習
強化學習是機器學習的一個分支,相較于機器學習經典的有監督學習、無監督學習問題,強化學習最大的特點是在交互中學習(Learning from Interaction)。Agent在與環境的交互中根據獲得的獎勵或懲罰不斷的學習知識,更加適應環境。RL學習的范式非常類似于我們人類學習知識的過程,也正因此,RL被視為實現通用AI重要途徑。<br>通過融合深度學習,深度強化學習迅速在圍棋,游戲等場景取得了超越人類的表現。通過本次課程,學員能夠系統的掌握深度學習框架及核心技術,包括 Markov Desision Process, Monte Carlo Control, SARSA, Q learning, Value Approximation, Deep reinforcement Learning ,及強化學習在游戲,自然語言中, 推薦的應用過程,即有助于應用層面上的提升,也給科研提供新的思路與方向。
課程大綱
第一周:強化學習基礎(1)
學習目標:掌握強化學習最基本的知識,包括MDP, Bellman Equation以及動態規劃,這些對后續的學習是必須的。?
學習安排:
-?Markov Decision Process(MDP)
-?Bellman Equation
- Dynamic Programming
- Model-free Prediction
-?Monte Carlo Leanring
- TD Learning?
第二周:強化學習基礎(2)
學習目標:掌握強化學習最基本的知識,包括Model free policy,Monte Carlo Control, Q-Learning等。?
學習安排:
-?Model-free control
-?On-policy Monte Carlo Control
- On-policy TD learning
- SARSA, SARSA Lambda
- Off-policy
- Importance Sampling
- Q-learning
- 案例分析:Atari的實現以及講解
第三周:強化學習基礎
學習目標:掌握強化學習核心方法論,能把相應的技術應用在自己的問題當中。主要的技術涉及深度強化學習。?
學習安排:
- Policy Gradient
- Deep?reinforcement learning
- Actor?critic
- Advanced?reinforcement learing
-?案例分析:RL在文本生成中的應用
第四周:探索、實施、推薦系統
學習目標:掌握強化學習在online learning的應用,包括各類multi-armed bandit算法,以及在推薦中的應用。?
學習安排:
- Multi-armed Bandits
- Explore and Exploit
-?Thompson Sampling
- Epsilon Greedy
-?Upper Confidence Bound
- Epsilon Greedy
-?UCB
- 案例分析:強化學習與推薦系統
第五周:多智能體的強化學習與稀疏Reward的設計
學習目標:掌握強化學習中的多智能體學習和各種Reward設計方法,能夠靈活在自身的問題中應用起來。?
學習安排:
- Multi agent Reinforcement Learning
- Sparse Reward Design
- Inverse RL
- AlphaGo詳解
第六周:強化學習在NLP、量化和游戲中的應用
學習目標:掌握強化學習在主流場景中的應用,包括自然語言處理、量化投資以及游戲。?
學習安排:
- 案例分析:強化學習的應用場景
- 案例分析:強化學習在NLP中的應用
- 案例分析:強化學習在量化投資中的應用
- 案例分析:強化學習在游戲中的應用
- SeqGan講解
作業項目:利用強化學習搭建游戲智能體
項目描述:本項目 (coursework) 旨在實踐并設計強化學習算法來探索,解決解決強化學習問題。其中包括模擬HFO ( Half Field Offence)及 Flappy Bird。通過此項目,期望同學們能充分理解,并可掌握,應用 (但不限于) :狀態State, 動作Action, MDP( 馬爾可夫決策過程)。State value function ,State Action value function 如何進行估計,迭代及預測。深度神經網絡強化學習對Value Approximation進行評估, 并進行Policy優化。Exploration 和 Exploitation 的平衡優化也將會在本項目的最后進行探索。。
涉及到的技術:MDP建模,Q Learning,Monte Carlo control,Value Iteration, Deep Q Learning
感興趣的請添加咨詢顧問
關于我們-一切從信任開始
我們專注人工智能人才培養4年,在AI領域,國內屬于最頭部的人才培養黃埔院校。在AI人才培養上,已跟京東、騰訊等大廠一直建立者良好的戰略合作關系,學員也來自斯坦福、伯克利、清華、北大等世界級名校。
職場成功案例
姓名:李**
學校專業:燕山大學 控制工程專業 2019級碩士畢業生
原工作單位:軟通動力 算法工程師 年薪20萬
跳槽方向:算法工程師
匹配方案:技術研修+背景提升+求職面試一籃子服務
最終跳槽公司:榮耀 年薪45萬
履約服務時長:7個月
姓名:Jerry Zhao
學校專業:澳大利亞國立大學 計算機專業 2018級本科畢業生
原工作單位:魯班軟件 初級算法工程師 年薪18萬
跳槽方向:ML算法工程師
匹配方案:技術研修+案例項目學習+求職面試一籃子服務
最終跳槽公司:網易 年薪40萬
履約服務時長:4個月
姓名:錢**
學校專業:中國農業大學 計算機科學與技術 2018級本科畢業生
原工作單位:聚美國際 算法工程師 年薪22萬
跳槽方向:算法工程師?
匹配方案:技術研修+導師咨詢+求職面試一籃子服務
最終跳槽公司:亞馬遜電商 年薪47萬
履約服務時長:11個月
姓名:蔡*
學校專業:中科院自動化所 智能控制與計算智能 2020級博士畢業生
原工作單位:中國科學院自動化研究所-智能系統與工程研究中心-實習 年薪5萬
跳槽方向:ML算法工程師
匹配方案:背景提升+大廠技術大牛求職方向規劃+求職面試一籃子服務
最終跳槽公司:比亞迪 年薪38萬
履約服務時長:2個月
歷屆學員去向
大廠前輩導師
李文哲
貪心科技CEO
美國南加州大學博士
曾任獨角獸金科集團首席數據科學家、美國亞馬遜和高盛的高級工程師
金融行業開創知識圖譜做大數據反欺詐的第一人
先后在AAAI、KDD、AISTATS、CHI等國際會議上發表過15篇以上論文
楊老師
推薦系統,計算機視覺領域專家
香港城市大學博士,加州大學美熹德分校博士后
主要從事機器學習,圖卷積,圖嵌入的研究
先后在ECCV, Trans on Cybernetics, Trans on NSE, INDIN等國際頂會及期刊上發表過數篇論文
王老師
畢業于QS排名TOP20名校
先后任職于亞馬遜,華為,平安科技等AI研發部門
主要從事機器閱讀理解,信息檢索,文本生成等方向的研究
先后在AAAI, ICLR等發表數篇論文,擁有多項國家發明專利
感興趣的請添加咨詢顧問
總結
以上是生活随笔為你收集整理的顶尖机器学习学习路线,6个月让你的技术成为行业TOP5%的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: shell su 密码_[SU模型]
- 下一篇: dhcp工具_网络分析之DHCP服务闯入