机器学习视频推荐-绝对的通俗易懂(线性回归,逻辑回归,朴素贝叶斯分类器,K-近邻,SVM,决策树,随机森林,XGboost,k-means聚类)
目錄
- 機器學習流程
- 有監督算法(回歸,分類)
- 1.分類(classification)與回歸(regression)的區別與關系
- 2.線性回歸
- 3.邏輯回歸(是一個分類算法,可處理二元分類及多元分類)
- 3.1邏輯回歸解決二分類問題
- 3.2 邏輯回歸python實現并可視化
- 4.K近鄰算法(k-nearest neighbor classification算法)
- 5.樸素貝葉斯分類器(Naive Bayes Classifier)-判垃圾郵件
- 6.SVM(支持向量機-線性分類器)
- 7.決策樹(處理非線情況)
- 7.1使用決策樹判斷是否打golf
- 8.隨機森林
- 9.XGBoost
- 10.矩陣分解--推薦系統
- 無監督學習(聚類)
- 1.K-means聚類
- 2.PCA
說明:貪心科技的機器學習視頻,推薦給希望入門機器學習但又找不到合適資源的小伙伴,UP主將常見的機器學習算法分析的通俗易懂,看完后收獲很多,下面是我學習的部分筆記,供以后回顧!
機器學習流程
有監督算法(回歸,分類)
1.分類(classification)與回歸(regression)的區別與關系
參考
分類通常是建立在回歸之上:例如判斷一幅圖片上的動物是一只貓還是一只狗,還是豬,需要先計算一個連續的概率值,然后分類的最后一層通常要使用softmax函數進行判斷其所屬類別。
2.線性回歸
就是找到一條直線,來擬合上面所有的點(應用:比如進行房價預測,橫坐標是面積,縱坐標是價錢)
假設線性回歸是個黑盒子,那按照程序員的思維來說,這個黑盒子就是個函數,然后呢,我們只要往這個函數傳一些參數作為輸入,就能得到一個結果作為輸出。那回歸是什么意思呢?其實說白了,就是這個黑盒子輸出的結果是個連續的值。如果輸出不是個連續值而是個離散值那就叫分類。
參考
3.邏輯回歸(是一個分類算法,可處理二元分類及多元分類)
視頻
前面講到模型輸出是連續值就是回歸,輸出是離散值就是分類!
邏輯回歸雖然叫回歸,但通常干的是分類的活,與回歸最大的聯系就是:在線性回歸上套了一個邏輯函數,就得到邏輯回歸,輸出的是一個連續的值wx+b,用這個連續的值+sigmoid進行概率計算,然后再分類。
邏輯回歸的目標函數就是極大化似然函數
3.1邏輯回歸解決二分類問題
分類問題:就是一個條件概率問題,主要解決:1.如何定義這個條件概率(使用什么函數f)2.根據條件概率如何分類
邏輯回歸的決策邊界是線性的,所以邏輯回歸是線性的
在進行梯度下降時,GD考慮的是全部樣本,SGD考慮的是單個樣本,MBGD就是折中的每次迭代考慮一小批。
3.2 邏輯回歸python實現并可視化
視頻1
博客
4.K近鄰算法(k-nearest neighbor classification算法)
5.樸素貝葉斯分類器(Naive Bayes Classifier)-判垃圾郵件
樸素貝葉斯分類(NBC)是以貝葉斯定理為基礎并且假設特征條件之間相互獨立的方法,先通過已給定的訓練集,以特征詞之間獨立作為前提假設,學習從輸入到輸出的聯合概率分布,再基于學習到的模型,輸入x求出使得后驗概率最大的輸出y。
通過先驗概率和條件概率,求得未知分類的后驗概率,利用后驗概率進行分類
6.SVM(支持向量機-線性分類器)
7.決策樹(處理非線情況)
將不同的條件當成節點構建一棵樹,然后進行分類,因為節點有多個,那么如何構建一棵樹才是最合理的呢:即保證信息增益最大化
信息增益=信息熵-條件熵。
7.1使用決策樹判斷是否打golf
8.隨機森林
9.XGBoost
XGBoost(eXtreme Gradient Boosting)全名叫極端梯度提升,XGBoost是集成學習方法的王牌,在Kaggle數據挖掘比賽中,大部分獲勝者用了XGBoost,XGBoost在絕大多數的回歸和分類問題上表現的十分頂尖,主要是一種殘差思想。
參考
10.矩陣分解–推薦系統
無監督學習(聚類)
1.K-means聚類
K-means聚類包含兩部分:
b.針對每一組的點計算它們的均值得到新的中心點。
K-means一個點就屬于一個group,hard clusting
GMM與K-means相似,只不過一個點可能屬于多個類,每個類的喜好不同
2.PCA
視頻
總結
以上是生活随笔為你收集整理的机器学习视频推荐-绝对的通俗易懂(线性回归,逻辑回归,朴素贝叶斯分类器,K-近邻,SVM,决策树,随机森林,XGboost,k-means聚类)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 20165326 java第四周学习笔记
- 下一篇: 2017.12.20-21