opencv机器学习线性回归_Python机器学习之?线性回归入门(二)
線性回歸原理介紹
文章目錄
- 機器學習分類
- 線性回歸原理
- 線性回歸定義
- 線性回歸背后矩陣運算
機器學習分類
機器學習的主要任務便是聚焦于兩個問題:分類和回歸
機器學習在不同的維度會有不同的劃分,最普遍的劃分大致可以分為監督學習、非監督學習、半監督學習、增強學習
監督學習的數據集擁有既定的標簽,即訓練的數據集已經有了某種特定的屬性,例如醫院有很多病人的數據,可以根據患者的數據進行病情的鑒定、銀行有很多人的信用信息,根據這些信息可以判定申請人的信用程度等等。
非監督學習的數據集沒有任何既定標簽,完全讓算法去分析這些數據,找出一些特殊情況,大多數聚類算法都是非監督學習。
半監督學習,雖然數據集有既定標簽,但是有時候有些數據會有缺失,例如銀行信用體系中,有些人的年齡數據缺失、有些人性別數據缺失等等。
增強學習,即根據當下的環境不斷的去學習,不斷的發現數據集,不斷的訓練自己,例如阿爾法狗以及無人駕駛等,都是增強學習的應用。
線性回歸原理
下面的數據很容易獲得房屋面積與價格之間的關系面積 * 2.1 = 價格,在二維的線性關系公式為:y = kx + b 添加b是為了單個特征的情況更通用,例如x=0時y可以不經過原點
如果是多個特征例如房子重要的兩個參數 面積,位置。那么多特征公式為:k1房子面積 + k2房子位置 + b
線性回歸定義
線性回歸通過一個或者多個自變量與因變量之間進行建模的回歸分析,其中可以為一個或者多個自變量之間的線性組合
線性回歸背后矩陣運算
矩陣乘法必須滿足特定條件:(m行,L列) * (L行,n列) = (m行,n列), 矩陣的乘法背后的業務邏輯就是多元線性回歸的公式
sklearn機器學習框架
文章目錄
- sklearn庫簡介
- Sklearn體系結構
- 加載數據
- 區分測試集訓練集
sklearn庫簡介
Scikit learn 也簡稱 sklearn, 是機器學習領域當中最知名的 python 模塊之一
Sklearn體系結構
加載數據
通過pandas可以很方便加載csv,excel,sql,html,json中的數據,加載成功默認保存為DataFrame對象。
區分測試集訓練集
線性回歸極簡案例
文章目錄
- 使用模型的步驟
- 訓練本質就是找權重與偏置
- 測試集與絕對值誤差
使用模型的步驟
Sklearn 把所有機器學習的模式整合統一起來了,學會了一個模式就可以通吃其他不同類型的學習模式
訓練本質就是找權重與偏置
測試集與絕對值誤差
線性回歸的缺點
文章目錄
- 單項式缺點
- 構建單項式回歸
- 單項式缺點
y = wx + b 這種單項式在數學模型中表示一根直線,但是生產環境中很多的數據例如股票,銷售漲跌它都是曲線結構的,這就會導致單項式的線性回歸預測率低
構建單項式回歸
大家可以看到,單項式線性回歸在可視化中生成的就是一條直線,直線的情況下預測曲線的真實數據是非常低的,因此一章節我們就來看如何采用多項式預測曲線數據
手寫多項式回歸
文章目錄
- 多項式回歸場景
- 創建待分析的樣本
- 多項式預測樣本
多項式回歸場景
直線回歸研究的是一個依變量與一個自變量之間的回歸問題,但是,在畜禽、水產科學領域的許多實際問題中,影響依變量的自變量往往不止一個,而是多個,比如綿羊的產毛量這一變量同時受到綿羊體重、胸圍、體長等多個變量的影響,因此需要進行一個依變量與多個自變量間的回歸分析,即多元回歸分析
研究一個因變量與一個或多個自變量間多項式的回歸分析方法,稱為多項式回歸(Polynomial Regression)。如果自變量只有一個時,稱為一元多項式回歸;如果自變量有多個時,稱為多元多項式回歸。在一元回歸分析中,如果依變量y與自變量x的關系為非線性的,但是又找不到適當的函數曲線來擬合,則可以采用一元多項式回歸
一元m次多項式回歸方程為:
二元二次多項式回歸方程為:
創建待分析的樣本
多項式預測樣本
總結
以上是生活随笔為你收集整理的opencv机器学习线性回归_Python机器学习之?线性回归入门(二)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 有没有什么方法快速能找到导致软件崩溃的进
- 下一篇: python增量更新数据_Python标