模型评估准确率、召回率、ROC曲线、AUC总结
實際上非常簡單,精確率是針對我們預測結果而言的,它表示的是預測為正的樣本中有多少是對的。那么預測為正就有兩種可能了,一種就是把正類預測為正類(TP),另一種就是把負類預測為正類(FP)。
? ? ? ? ? ? ? ? ? ? ? P = TP/(TP+FP)
而召回率是針對我們原來的樣本而言的,它表示的是樣本中的正例有多少被預測正確了。那也有兩種可能,一種是把原來的正類預測成正類(TP),另一種就是把原來的正類預測為負類(FN)。
? ? ? ? ? ? ? ? ? ? ? R = TP/(TP+FN) ? ? ? ? ? ?
T
在信息檢索領域,精確率和召回率又被稱為查準率和查全率,
ROC 曲線
我們先來看下維基百科的定義,
In signal detection theory, a receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system?as its discrimination threshold is varied.
比如在邏輯回歸里面,我們會設一個閾值,大于這個值的為正類,小于這個值為負類。如果我們減小這個閥值,那么更多的樣本會被識別為正類。這會提高正類的識別率,但同時也會使得更多的負類被錯誤識別為正類。為了形象化這一變化,在此引入 ROC ,ROC 曲線可以用于評價一個分類器好壞。
ROC 關注兩個指標,
直觀上,TPR 代表能將正例分對的概率,FPR 代表將負例錯分為正例的概率。在 ROC 空間中,每個點的橫坐標是 FPR,縱坐標是 TPR,這也就描繪了分類器在 TP(真正率)和 FP(假正率)間的 trade-off2。
AUC
AUC(Area Under Curve)被定義為ROC曲線下的面積,顯然這個面積的數(shù)值不會大于1。
The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example.
翻譯過來就是,隨機挑選一個正樣本以及一個負樣本,分類器判定正樣本的值高于負樣本的概率就是 AUC 值。
簡單說:AUC值越大的分類器,正確率越高3。
- ,完美分類器,采用這個預測模型時,不管設定什么閾值都能得出完美預測。絕大多數(shù)預測的場合,不存在完美分類器。
- ,優(yōu)于隨機猜測。這個分類器(模型)妥善設定閾值的話,能有預測價值。
- ,跟隨機猜測一樣(例:丟銅板),模型沒有預測價值。
- ,比隨機猜測還差;但只要總是反預測而行,就優(yōu)于隨機猜測,因此不存在??的情況。
既然已經(jīng)這么多評價標準,為什么還要使用ROC和AUC呢?因為ROC曲線有個很好的特性:當測試集中的正負樣本的分布變化的時候,ROC曲線能夠保持不變。在實際的數(shù)據(jù)集中經(jīng)常會出現(xiàn)類不平衡(class imbalance)現(xiàn)象,即負樣本比正樣本多很多(或者相反)
回歸4
平均絕對誤差
平均絕對誤差MAE(Mean Absolute Error)又被稱為??范數(shù)損失(l1-norm loss):
平均平方誤差
平均平方誤差 MSE(Mean Squared Error)又被稱為??范數(shù)損失(l2-norm loss):
總結
以上是生活随笔為你收集整理的模型评估准确率、召回率、ROC曲线、AUC总结的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: OpenCV 中的图像处理
- 下一篇: 常见优化算法批量梯度下降、小批量梯度下降