【论文阅读】Clustering by Shift
-
Min Cut
含義很簡單,就是將不屬于同一類的所有點之間的相似度累加起來就好了。
是一種描述不同類之間 分離程度。 -
缺點:這個方法傾向于切割小的組出來。
-
這篇論文提出的想法之一:
-
進一步做一個變形。中間用到了一步,就是將屬于同一類的就算部分補全,使得公式更加整潔。通過化簡構造出了一個常數的部分,之后,就只需要考慮后面的非常數部分了。
- 也就是考慮每個類內部的聚合程度。而這個α\alphaα只是將類內部的點的數量信息顯示了出來。個人認為,這個部分,跟之前的Ratio Cut 有點類似,雖然目標函數有些不一樣,但思想都是一致的
論文中也有這樣說到這個。
This formulation provides a rich family of alternative clustering
models where different regularizations are induced by
different values of α. However, choosing a very large α can
lead to equalizing the size of the clusters that are inherently
very unbalanced in size.
- 該公式提供了豐富的替代聚類系列
由不同的正則化引起的模型
不同的α值。但是,選擇一個非常大的α可以使得聚類的結果均衡,就算原來的大小就是不均衡的。
很明顯,這個模型需要做很多的關于超參數的修改。這樣很麻煩,而且有時候根本沒辦法調整這個alpha。所以,本文又提出了一個改進。
- we propose a particular shift of pairwise similarities which
takes the connectivity of the objects into account and does not
require fixing any free parameter.
就是關于X做一個Shift。
這樣,就使得行列之和都會變為0了。
于是直接改寫這個公式,得到新的損失函數:
會發現,這個損失函數,就是不再存在有超參數了。
總結
以上是生活随笔為你收集整理的【论文阅读】Clustering by Shift的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【论文阅读】A social recom
- 下一篇: KMeans++算法理论和实现