[机器学习笔记] 常用的分类与预测算法
生活随笔
收集整理的這篇文章主要介紹了
[机器学习笔记] 常用的分类与预测算法
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
常用的分類與預測算法
| 回歸分析 | 回歸分析是確定預測屬性(數(shù)值型)與其它變量間相互依賴的定量關系最常用的統(tǒng)計學方法。 包括:線性回歸、非線性回歸、Logistic回歸、嶺回歸、主成分回歸、偏最小二乘回歸等模型。 |
| 決策樹 | 決策樹采用自頂向下的遞歸方式,在內部節(jié)點進行屬性值的比較,并根據(jù)不同的屬性值從該節(jié)點向下分支,最終得到的葉子節(jié)點是學習劃分的類 |
| 人工神經(jīng)網(wǎng)絡 | 人工神經(jīng)網(wǎng)絡是一種模仿大腦神經(jīng)網(wǎng)絡結構和功能而建立的信息處理系統(tǒng),表示神經(jīng)網(wǎng)絡的輸入與輸出變量之間關系的模型 |
| 貝葉斯網(wǎng)絡 | 貝葉斯網(wǎng)絡又稱信度網(wǎng)絡,是Bayes方法的擴展,是目前不確定知識表述和推理領域最有效的理論模型之一 |
| 支持向量機 | 支持向量機是一種通過某種非線性映射,把低維的非線性可分轉化為高維的線性可分,在高維空間進行線性分析的算法 |
回歸分析
主要回歸模型分類
?
| 線性回歸 | 因變量與自變量是線性關系 | 對一個或多個自變量和因變量之間的線性關系進行建模,可用最小二乘法求解模型系數(shù) |
| 非線性回歸 | 因變量與自變量之間不都是線性關系 | 對一個或多個變量和因變量之間的非線性關系進行建模。如果非線性關系可以通過簡單的函數(shù)變換轉化成線性關系,用線性回歸的思想求解;如果不能轉化,用非線性最小二乘法求解。 |
| Logistic回歸 | 因變量一般有1和0(是否)兩種取值 | 是廣義線性回歸模型的特例,利用Logistic函數(shù)將因變量的取值范圍控制在0和1之間,表示取值為1的概率 |
| 嶺回歸 | 參與建模的自變量之間具有多重共線性 | 是一種改進最小二乘估計的方法 |
| 主成分回歸 | 參與建模的自變量之間具有多重共線性 | 主成分回歸是根據(jù)主成分分析的思想提出來的,是對最小二乘法的一種改進,它是參數(shù)估計的一種有偏估計。可以消除自變量之間的多重共線性。 |
線性回歸模型是相對簡單的回歸模型,但是通常因變量和自變量之間呈現(xiàn)某種曲線關系,就需要建立非線性回歸模型。
當自變量之間出現(xiàn)多重共線性時,用最小二乘估計的回歸系數(shù)將會不準確,消除多重共線性的參數(shù)改進的估計方法主要有嶺回歸和主成分回歸。
?
?
總結
以上是生活随笔為你收集整理的[机器学习笔记] 常用的分类与预测算法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python3——多线程之threadi
- 下一篇: 获取指定地址的值