一句话简单总结李航统计学习法各算法
生活随笔
收集整理的這篇文章主要介紹了
一句话简单总结李航统计学习法各算法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
K近鄰:
選取樣本集合中K個距離最近的數據中出現次數最多的分類,作為新數據的分類
native ?bayes :利用訓練數據計算類的先驗概率P(Y)和特征向量對應每一類的條件概率P(X|Y),計算聯合概率分布P(X,Y),再計算測試集中每一個待分類語句在每一類的分類后驗概率P(Y|X),選后驗概率最大的作為其分類
決策樹
首先找出最有判別力的屬性,把樣例分成多個子集,每個子集又選擇最有判別力的屬性進行劃分,一直進行到所有子集僅包含同一類型的數據為止。最后得到一棵決策樹。信息增益(information gain),作為屬性判別能力的度量,設計了構造決策樹的遞歸算法
logistic回歸:
首先找出最有判別力的屬性,把樣例分成多個子集,每個子集又選擇最有判別力的屬性進行劃分,一直進行到所有子集僅包含同一類型的數據為止。最后得到一棵決策樹。信息增益(information gain),作為屬性判別能力的度量,設計了構造決策樹的遞歸算法
SVM:
確定一個超平面,使得這個超平面到樣本集合(支持向量)的幾何距離最大
SMO: 選取一對需更新的變量ai和aj,固定ai和aj以外的參數,求解對偶問題獲得更新后的ai和aj。第一個變量ai是違背KKT條件程度最大的變量,第二個變量aj選擇一個使目標函數增長最快的變量,即選取的兩個變量所對應的樣本之間間隔最大
AdaBoost:
通過迭代每次學習一個基本分類器,每次迭代中提高那些在前一輪迭代器中被錯誤分類的數據(特征)的權值,而降低那些被正確分類的數據的權值,最后將基本分類器線性組合為強可學習分類器。其中給分類誤差率小的基本分類器較大的權值系數,分類誤差率大的基本分類器較小的權值系數。
EM算法:是含有隱變量的概率模型極大似然估計或極大概率后驗估計的迭代算法,每次迭代實際在求Q函數(E步)及其極大(M步)
隱馬爾可夫模型:是關于時序的模型,初始狀態概率向量PI和狀態轉移概率矩陣A確定了隱藏的馬爾可夫鏈,并生成不可觀測的狀態序列,觀測概率矩陣B確定了如何從狀態生成觀測序列。 與50位技術專家面對面20年技術見證,附贈技術全景圖
選取樣本集合中K個距離最近的數據中出現次數最多的分類,作為新數據的分類
native ?bayes :利用訓練數據計算類的先驗概率P(Y)和特征向量對應每一類的條件概率P(X|Y),計算聯合概率分布P(X,Y),再計算測試集中每一個待分類語句在每一類的分類后驗概率P(Y|X),選后驗概率最大的作為其分類
決策樹
首先找出最有判別力的屬性,把樣例分成多個子集,每個子集又選擇最有判別力的屬性進行劃分,一直進行到所有子集僅包含同一類型的數據為止。最后得到一棵決策樹。信息增益(information gain),作為屬性判別能力的度量,設計了構造決策樹的遞歸算法
logistic回歸:
首先找出最有判別力的屬性,把樣例分成多個子集,每個子集又選擇最有判別力的屬性進行劃分,一直進行到所有子集僅包含同一類型的數據為止。最后得到一棵決策樹。信息增益(information gain),作為屬性判別能力的度量,設計了構造決策樹的遞歸算法
SVM:
確定一個超平面,使得這個超平面到樣本集合(支持向量)的幾何距離最大
SMO: 選取一對需更新的變量ai和aj,固定ai和aj以外的參數,求解對偶問題獲得更新后的ai和aj。第一個變量ai是違背KKT條件程度最大的變量,第二個變量aj選擇一個使目標函數增長最快的變量,即選取的兩個變量所對應的樣本之間間隔最大
AdaBoost:
通過迭代每次學習一個基本分類器,每次迭代中提高那些在前一輪迭代器中被錯誤分類的數據(特征)的權值,而降低那些被正確分類的數據的權值,最后將基本分類器線性組合為強可學習分類器。其中給分類誤差率小的基本分類器較大的權值系數,分類誤差率大的基本分類器較小的權值系數。
EM算法:是含有隱變量的概率模型極大似然估計或極大概率后驗估計的迭代算法,每次迭代實際在求Q函數(E步)及其極大(M步)
隱馬爾可夫模型:是關于時序的模型,初始狀態概率向量PI和狀態轉移概率矩陣A確定了隱藏的馬爾可夫鏈,并生成不可觀測的狀態序列,觀測概率矩陣B確定了如何從狀態生成觀測序列。 與50位技術專家面對面20年技術見證,附贈技術全景圖
總結
以上是生活随笔為你收集整理的一句话简单总结李航统计学习法各算法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 拿到一台新的Windows电脑,我会做什
- 下一篇: 一篇写的很好的XGBoost的博客(于简