ML之UL:无监督学习Unsupervised Learning的概念、应用、经典案例之详细攻略
ML之UL:無監(jiān)督學(xué)習(xí)Unsupervised Learning的概念、應(yīng)用、經(jīng)典案例之詳細(xì)攻略
?
?
目錄
無監(jiān)督學(xué)習(xí)Unsupervised Learning的概念
無監(jiān)督學(xué)習(xí)Unsupervised Learning的應(yīng)用
1、關(guān)聯(lián)分析
2、聚類問題
2.1、聚類算法常見的五種分類—劃分方法(K-means/K-medoids/CLARANS)、層次方法(BIRCH/DBSCAN/CURE)
3、維度約減
無監(jiān)督學(xué)習(xí)Unsupervised Learning的經(jīng)典案例
1、基礎(chǔ)案例
?
?
參考文章:《2019中國人工智能發(fā)展報告》—清華大學(xué)中國工程院知識智能中心—201912
相關(guān)文章
ML之SL:監(jiān)督學(xué)習(xí)(Supervised Learning)的簡介、應(yīng)用、經(jīng)典案例之詳細(xì)攻略
ML之UL:無監(jiān)督學(xué)習(xí)Unsupervised Learning的概念、應(yīng)用、經(jīng)典案例之詳細(xì)攻略
ML之SSL:Semi-Supervised Learning半監(jiān)督學(xué)習(xí)的簡介、應(yīng)用、經(jīng)典案例之詳細(xì)攻略???????
無監(jiān)督學(xué)習(xí)Unsupervised Learning的概念
? ? ? ? ?現(xiàn)實生活中常常會有這樣的問題:缺乏足夠的先驗知識,因此難以人工標(biāo)注類別或進(jìn)行人工類別標(biāo)注的成本太高。很自然地,我們希望計算機(jī)能代我們完成這些工作,或至少提供一些幫助。根據(jù)類別未知(沒有被標(biāo)記)的訓(xùn)練樣本解決模式識別中的各種問題,稱之為無監(jiān)督學(xué)習(xí)。
? ? ? ? ?跟監(jiān)督學(xué)習(xí)相反,無監(jiān)督學(xué)習(xí)中數(shù)據(jù)集是完全沒有標(biāo)簽的,依據(jù)相似樣本在數(shù)據(jù)空間中一般距離較近這一假設(shè),將樣本分類。常見的無監(jiān)督學(xué)習(xí)算法包括:稀疏自編碼(sparse auto-encoder)、主成分分析(Principal Component Analysis, PCA)、K-Means算法(K均值算法)、DBSCAN算法(Density-Based Spatial Clustering of Applications with Noise)、最大期望算法(Expectation-Maximization algorithm, EM)等。
?
?
無監(jiān)督學(xué)習(xí)Unsupervised Learning的應(yīng)用
利用無監(jiān)督學(xué)習(xí)可以解決的問題可以分為關(guān)聯(lián)分析、聚類問題和維度約減。
1、關(guān)聯(lián)分析
? ? ? ? ?關(guān)聯(lián)分析是指發(fā)現(xiàn)不同事物之間同時出現(xiàn)的概率。在購物籃分析中被廣泛地應(yīng)用。如果發(fā)現(xiàn)買面包的客戶有百分之八十的概率買雞蛋,那么商家就會把雞蛋和面包放在相鄰的貨架上。
?
2、聚類問題
? ? ? ? ?聚類問題是指將相似的樣本劃分為一個簇(cluster)。與分類問題不同,聚類問題預(yù)先并不知道類別,自然訓(xùn)練數(shù)據(jù)也沒有類別的標(biāo)簽。
? ? ? ? ?無監(jiān)督學(xué)習(xí)里典型例子是聚類。聚類的目的在于把相似的東西聚在一起,而我們并不關(guān)心這一類是什么。因此,一個聚類算法通常只需要知道如何計算相似度就可以開始工作了。
2.1、聚類算法常見的五種分類—劃分方法(K-means/K-medoids/CLARANS)、層次方法(BIRCH/DBSCAN/CURE)
? ? ? ? ?聚類算法一般有五種方法,最主要的是劃分方法和層次方法兩種。
? ? ? ? ?劃分聚類算法,通過優(yōu)化評價函數(shù)把數(shù)據(jù)集分割為K個部分,它需要K作為 輸人參數(shù)。典型的分割聚類算法有K-means算法, K-medoids算法、CLARANS算法。
? ? ? ? ?層次聚類,由不同層次的分割聚類組成,層次之間的分割具有嵌套的關(guān)系。它不需要輸入?yún)?shù),這是它優(yōu)于分割聚類算法的一個明顯的優(yōu)點,其缺點是終止條件必須具體指定。典型的分層聚類算法有BIRCH算法、DBSCAN算法和CURE算法等。
?
3、維度約減
? ? ? ? ?維度約減:顧名思義,是指減少數(shù)據(jù)維度的同時保證不丟失有意義的信息。利用特征提取方法和特征選擇方法,可以達(dá)到維度約減的效果。特征選擇是指選擇原始變量的子集。特征提取是將數(shù)據(jù)從高維度轉(zhuǎn)換到低維度。廣為熟知的主成分分析算法就是特征提取的方法。
?
?
無監(jiān)督學(xué)習(xí)Unsupervised Learning的經(jīng)典案例
1、基礎(chǔ)案例
TF之AE:AE實現(xiàn)TF自帶數(shù)據(jù)集AE的encoder之后decoder之前的非監(jiān)督學(xué)習(xí)分類
?
?
?
?
?
?
?
?
?
總結(jié)
以上是生活随笔為你收集整理的ML之UL:无监督学习Unsupervised Learning的概念、应用、经典案例之详细攻略的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 成功解决ValueError: Shap
- 下一篇: 成功解决RuntimeWarning: