决策树和随机森林(下)
生活随笔
收集整理的這篇文章主要介紹了
决策树和随机森林(下)
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
上次探究了深度對(duì)決策樹(shù)的影響,發(fā)現(xiàn)深度越大,容易發(fā)生過(guò)擬合
沒(méi)錯(cuò)今天來(lái)說(shuō)所謂的剪枝和隨機(jī)森林
剪枝總體思路:
- 由完全樹(shù)T0開(kāi)始,剪枝部分結(jié)點(diǎn)得到T1,再次剪 枝部分結(jié)點(diǎn)得到T2…直到僅剩樹(shù)根的樹(shù)Tk;
- 在驗(yàn)證數(shù)據(jù)集上對(duì)這k個(gè)樹(shù)分別評(píng)價(jià),選擇損失 函數(shù)最小的樹(shù)Tα
首先了解上面是剪枝系數(shù)
但是主要用隨機(jī)森林算法來(lái)防止過(guò)擬合,也是決策樹(shù)的加強(qiáng)版
那什么是隨機(jī)森林,就是多棵決策樹(shù)組成,對(duì)樣本和特征隨便抽取,其實(shí)也是有放回抽樣
探究深度對(duì)隨機(jī)森林的影響
import numpy as np import ma總結(jié)
以上是生活随笔為你收集整理的决策树和随机森林(下)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 09主板u盘怎么设coms 09主板如何
- 下一篇: 基于用户的协同过滤(余弦相似度)