特征选择常用算法综述
生活随笔
收集整理的這篇文章主要介紹了
特征选择常用算法综述
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
1 綜述
(1) 什么是特征選擇
特征選擇 ( Feature Selection )也稱特征子集選擇( Feature Subset Selection , FSS ) ,或?qū)傩赃x擇( Attribute Selection ) ,是指從全部特征中選取一個特征子集,使構(gòu)造出來的模型更好。
(2) 為什么要做特征選擇
在機器學習的實際應用中,特征數(shù)量往往較多,其中可能存在不相關(guān)的特征,特征之間也可能存在相互依賴,容易導致如下的后果:
? 特征個數(shù)越多,分析特征、訓練模型所需的時間就越長。
? 特征個數(shù)越多,容易引起“維度災難”,模型也會越復雜,其推廣能力會下降。
特征選擇能剔除不相關(guān)(irrelevant)或亢余(redundant )的特征,從而達到減少特征個數(shù),提高模型精確度,減少運行時間的目的。另一方面,選取出真正相關(guān)的特征簡化了模型,使研究人員易于理解數(shù)據(jù)產(chǎn)生的過程。
2 特征選擇過程
總結(jié)
以上是生活随笔為你收集整理的特征选择常用算法综述的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 信息检索及信息过滤方法概述
- 下一篇: 条件随机场(conditional ra