KL距离相对熵
1. 概述
KL距離,是 Kullback-Leibler 差異(Kullback-Leibler Divergence)的簡稱,也叫做相對熵(Relative Entropy)。它衡量的是相同事件空間里的兩個概率分布的差異情況。
2. 定義
D(p∥q)=∑x∈Xp(x)log?p(x)q(x)D(p \| q)=\sum_{x \in X} p(x) \log \frac{p(x)}{q(x)}D(p∥q)=x∈X∑?p(x)logq(x)p(x)?
其中,p(x)p ( x )p(x) 與q(x)q(x)q(x)是兩個概率分布。
定義中約定:0log(0/q)=00 l o g ( 0 / q ) = 00log(0/q)=0、plog(p/0)=∞p l o g ( p / 0 ) = ∞plog(p/0)=∞
3.說明:
- 兩個概率分布的差距越大,KL距離越大
- 當兩個概率分布相同時,KL距離為0
總結
- 上一篇: Python之异常追踪模块:traceb
- 下一篇: Exchange 2007服务器启动后,