6.3 优化-机器学习笔记-斯坦福吴恩达教授
優(yōu)化
和其他機器學(xué)習(xí)算法一樣,K-Means 也要評估并且最小化聚類代價,在引入 K-Means 的代價函數(shù)之前,先引入如下定義:
μc(i)=樣本x(i)被分配到的聚類中心μ^{(i)}_c=樣本\ x^{(i)}\ 被分配到的聚類中心μc(i)?=樣本?x(i)?被分配到的聚類中心
引入代價函數(shù):
J(c(1),c(2),...,c(m);μ1,μ2,...,μk)=1m∑i=1m∣∣x(i)?μc(i)∣∣2J(c^{(1)},c^{(2)},...,c^{(m)};\ μ_1,μ_2,...,μ_k)=1m∑i=\frac1m||x^{(i)}?μ^{(i)}_c||^2J(c(1),c(2),...,c(m);?μ1?,μ2?,...,μk?)=1m∑i=m1?∣∣x(i)?μc(i)?∣∣2
JJJ也被稱為失真代價函數(shù)(Distortion Cost Function)。
實際上,K-Means 的兩步已經(jīng)完成了最小化代價函數(shù)的過程:
樣本分配時:
我們固定住了 (μ1,μ2,...,μk)(μ_1,μ_2,...,μ_k)(μ1?,μ2?,...,μk?) ,而關(guān)于 (c(1),c(2),...,c(m))(c^{(1)},c^{(2)},...,c^{(m)})(c(1),c(2),...,c(m)) 最小化了 JJJ 。
中心移動時:
我們再關(guān)于 (μ1,μ2,...,μk)(μ_1,μ_2,...,μ_k)(μ1?,μ2?,...,μk?) 最小化了 JJJ 。
由于 K-Means 每次迭代過程都在最小化 J ,所以下面的代價函數(shù)變化曲線不會出現(xiàn):
總結(jié)
以上是生活随笔為你收集整理的6.3 优化-机器学习笔记-斯坦福吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 6.2 K-Means 算法步骤-机器学
- 下一篇: 6.4 如何初始化聚类中心-机器学习笔记