决策树——学习笔记(一)
生活随笔
收集整理的這篇文章主要介紹了
决策树——学习笔记(一)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
概念
- gini不純度:是否錯誤分類?目標是最小化錯誤分類的概率,最優化分割gini不純度為0
- entropy信息增益: 不確定度多大?最完美分割信息熵為0
應用
- 表面這個決策樹在訓練集上正確率100%,但是測試集上可能表現很差,產生over-fitting
- 預剪枝:盡早停止決策樹生長,一般足夠控制過擬合,但現實復雜場景就不足以控制,需用到多個決策樹合并成的隨機森林
- max_depth:限制最大深度
- max_leaf_nodes:限制最多的葉節點數量
- min_simple_split:限制可分割最少樣本數
- 后剪枝:創建后移除或合并包含較少信息的節點
DataSets
Paper
總結
以上是生活随笔為你收集整理的决策树——学习笔记(一)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【转载】tkinter多线程防假死
- 下一篇: C++ 原码、反码、补码理解笔记