Sklearn.metrics评估方法
文章目錄
- 混淆矩陣
- 分類準確率 accuracy
- 精確率Precision
- 召回率 recall
- F1值
- Roc曲線、AUC
混淆矩陣
混淆矩陣又稱誤差矩陣,針對預測值和真實值之間的關系,我們可以將樣本分為四個部分,分別是: 真正例(True Positive,TP):預測值和真實值都為1 假正例(False Positive,FP):預測值為1,真實值為0 真負例(True Negative,TN):預測值與真實值都為0 假負例(False Negative,FN):預測值為0,真實值為1
假定一個實驗有?P個positive實例,在某些條件下有?N?個negative實例。那么上面這四個輸出可以用下面的偶然性表格(或混淆矩陣)來表示:
混淆矩陣的API
分類準確率 accuracy
所有樣本中被預測正確的樣本的比率分類模型總體判斷的準確率(包括了所有class的總體準確率)準確率的API:
from sklearn.metrics import accuracy accuracy = accuracy_score(y_test, y_predict)精確率Precision
預測為正類0的準確率:Precision=TP / ( TP + FP )
from sklearn.metrics import precision_score precision = precision_score(y_test, y_predict)召回率 recall
真實為0的準確率:
真實為1的準確率:Recall = TN/(TN+FP)
召回率API:
recall得到的是一個list,是每一類的召回率。
F1值
F1值用來衡量二分類模型精確度的一種指標。它同時兼顧了分類模型的準確率和召回率。F1分數可以看作是模型準確率和召回率的一種加權平均,它的最大值是1,最小值是0。
F1=2*(Precision* recall/Precision+recall)
Roc曲線、AUC
TPR FPR樣本中的真實正例類別總數即TP+FN
TPR即True Positive Rate,TPR = TP/(TP+FN)。
TPR:真實的正例0中,被預測為正例的比例
樣本中的真實反例類別總數為FP+TN
FPR即False Positive Rate,FPR=FP/(TN+FP)。
FPR:真實的反例1中,被預測為正例的比例
**理想分類器:**TPR=1,FPR=0
截斷點thresholds: 機器學習算法對test樣本進行預測后,可以輸出各test樣本對某個類別的相似度概率。比如t1是P類別的概率為0.3,一般我們認為概率低于0.5,t1就屬于類別N。這里的0.5,就是”截斷點”。
ROC曲線ROC曲線越接近左上角,代表模型越好,即ACU接近1
利用ROC的其他評估標準AUC(area under thecurve),也就是ROC曲線的下夾面積,越大說明分類器越好,較大值是1。
總結
以上是生活随笔為你收集整理的Sklearn.metrics评估方法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: html 仿ios选择控件,仿ios垂直
- 下一篇: android在特定时间,如何在Andr