机器学习性能评估指标(综合性总结)
轉自:http://charleshm.github.io/2016/03/Model-Performance/
分類
混淆矩陣1
- True Positive(真正, TP):將正類預測為正類數.
- True Negative(真負 , TN):將負類預測為負類數.
- False Positive(假正, FP):將負類預測為正類數?→?誤報?(Type I error).
- False Negative(假負 , FN):將正類預測為負類數?→?漏報?(Type II error).
精確率(precision)定義為:
P=TP / (TP+FP)需要注意的是精確率(precision)和準確率(accuracy)是不一樣的,
ACC=TP+TN/ (TP+TN+FP+FN)在正負樣本不平衡的情況下,準確率這個評價指標有很大的缺陷。比如在互聯網廣告里面,點擊的數量是很少的,一般只有千分之幾,如果用acc,即使全部預測成負類(不點擊)acc 也有 99% 以上,沒有意義。
召回率(recall,sensitivity,true positive rate)定義為:
R=TP/TP+FN此外,還有?F1?值,是精確率和召回率的調和均值,
2 /?F1=1 /?P+1 /?RF1=2TP/ (2TP+FP+FN)
精確率和準確率都高的情況下,F1?值也會高。
通俗版本
剛開始接觸這兩個概念的時候總搞混,時間一長就記不清了。
實際上非常簡單,精確率是針對我們預測結果而言的,它表示的是預測為正的樣本中有多少是對的。那么預測為正就有兩種可能了,一種就是把正類預測為正類(TP),另一種就是把負類預測為正類(FP)。
而召回率是針對我們原來的樣本而言的,它表示的是樣本中的正例有多少被預測正確了。那也有兩種可能,一種是把原來的正類預測成正類(TP),另一種就是把原來的正類預測為負類(FN)。
在信息檢索領域,精確率和召回率又被稱為查準率和查全率,
查準率=檢索出的相關信息量檢索出的信息總量查全率=檢索出的相關信息量系統中的相關信息總量
ROC 曲線
我們先來看下維基百科的定義,
In signal detection theory, a receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system?as its discrimination threshold is varied.
比如在邏輯回歸里面,我們會設一個閾值,大于這個值的為正類,小于這個值為負類。如果我們減小這個閥值,那么更多的樣本會被識別為正類。這會提高正類的識別率,但同時也會使得更多的負類被錯誤識別為正類。為了形象化這一變化,在此引入 ROC ,ROC 曲線可以用于評價一個分類器好壞。
ROC 關注兩個指標,
true positive rate:TPR=TP /?TP+FNfalse positive rate:FPR=FP /?FP+TN
直觀上,TPR 代表能將正例分對的概率,FPR 代表將負例錯分為正例的概率。在 ROC 空間中,每個點的橫坐標是 FPR,縱坐標是 TPR,這也就描繪了分類器在 TP(真正率)和 FP(假正率)間的 trade-off2。
AUC
AUC(Area Under Curve)被定義為ROC曲線下的面積,顯然這個面積的數值不會大于1。
The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example.
翻譯過來就是,隨機挑選一個正樣本以及一個負樣本,分類器判定正樣本的值高于負樣本的概率就是 AUC 值。
簡單說:AUC值越大的分類器,正確率越高3。
- AUC=1,完美分類器,采用這個預測模型時,不管設定什么閾值都能得出完美預測。絕大多數預測的場合,不存在完美分類器。
- 0.5<AUC<1,優于隨機猜測。這個分類器(模型)妥善設定閾值的話,能有預測價值。
- AUC=0.5,跟隨機猜測一樣(例:丟銅板),模型沒有預測價值。
- AUC<0.5,比隨機猜測還差;但只要總是反預測而行,就優于隨機猜測,因此不存在?AUC<0.5?的情況。
既然已經這么多評價標準,為什么還要使用ROC和AUC呢?因為ROC曲線有個很好的特性:當測試集中的正負樣本的分布變化的時候,ROC曲線能夠保持不變。在實際的數據集中經常會出現類不平衡(class imbalance)現象,即負樣本比正樣本多很多(或者相反)
回歸4
平均絕對誤差?
平均絕對誤差MAE(Mean Absolute Error)又被稱為?l1?范數損失(l1-norm loss):
MAE(y,?y)=1nsamplesnsamples∑i=1|yi??yi|平均平方誤差
平均平方誤差 MSE(Mean Squared Error)又被稱為?l2?范數損失(l2-norm loss):
MSE(y,?y)=1nsamplesnsamples∑i=1(yi??yi)2統計學習方法??
ROC和AUC介紹以及如何計算AUC??
AUC與ROC - 衡量分類器的好壞??
機器學習評價指標大匯總??
總結
以上是生活随笔為你收集整理的机器学习性能评估指标(综合性总结)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 这七种回归分析技术,学了不后悔
- 下一篇: 普通家用台式电脑最佳配置?