UA MATH636 信息论5 信道编码定理的证明
UA MATH636 信息論5 信道編碼定理的證明
- Random Coding Scheme
- 平均錯誤率
- 最大錯誤率
- 逆命題的證明
信道編碼定理說的是所有小于 CCC的傳輸率是可實現的。這里的 CCC就是我們之前定義的
C=max?p(X)I(X;Y)C = \max_{p(X)} I(X;Y)C=p(X)max?I(X;Y)
因此這個表述指的是
C=max?p(X)I(X;Y)=max?{R:Risachievable}C = \max_{p(X)} I(X;Y) = \max\{R:R\ is\ achievable\}C=p(X)max?I(X;Y)=max{R:R?is?achievable}
這一篇主要就證明一下這個定理和它的逆命題。
先簡單描述一下符號和設定:
因為M=2nRM=2^{nR}M=2nR,記codebook為C={Xn(i)}i=12nR\mathcal{C}=\{\mathcal{X}^n(i)\}_{i=1}^{2^{nR}}C={Xn(i)}i=12nR?,注意這個codebook是從總體p(X)p(X)p(X)中隨機生成的。假設信號是{1,2,?,M}\{1,2,\cdots,M\}{1,2,?,M}上的均勻分布,假設某一次信源發出的信號為www,則信源編碼器傳送到噪聲信道上的碼為Xn(w)\mathcal{X}^n(w)Xn(w)。經過噪聲信道傳輸到接收端的解碼器上的碼為yny^nyn,
p(yn∣Xn(w))=∏i=1np(yi∣Xn(w))p(y^n|\mathcal{X}^n(w)) = \prod_{i=1}^n p(y^i|\mathcal{X}^n(w))p(yn∣Xn(w))=i=1∏n?p(yi∣Xn(w))
經過解碼后得到信號www的估計量w^\hat{w}w^,它滿足Xn(w^)\mathcal{X}^n(\hat{w})Xn(w^)是唯一能與yny^nyn構成joint typical的碼。
上面這個系統叫做一個random coding scheme。
Random Coding Scheme
平均錯誤率
記事件w^≠w\hat{w} \ne ww^?=w為E\EpsilonE,則
p(E)=∑?Cp(C)pe(n)(C)p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C}) p_{e}^{(n)}(\mathcal{C})p(E)=?C∑?p(C)pe(n)?(C)
因為平均錯誤率比最大錯誤率更好分析,所以先從平均錯誤率開始。
p(E)=∑?Cp(C)[12nR∑w=12nRλw(C)]=12nR∑w=12nR[∑?Cp(C)λw(C)]p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C}) \left[\frac{1}{2^{nR}} \sum_{w=1}^{2^{nR}} \lambda_{w}(\mathcal{C})\right] =\frac{1}{2^{nR}} \sum_{w=1}^{2^{nR}} \left[ \sum_{\forall \mathcal{C}} p(\mathcal{C} )\lambda_w(\mathcal{C})\right] p(E)=?C∑?p(C)???2nR1?w=1∑2nR?λw?(C)???=2nR1?w=1∑2nR?[?C∑?p(C)λw?(C)]
因為中括號里面的求和式對所有可能的codebook的,所以實際上這個量會與www無關,不失一般性可以將上式寫成
p(E)=∑?Cp(C)λ1(C)=p(?∣w=1)p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C} )\lambda_1(\mathcal{C}) = p(\epsilon|w=1)p(E)=?C∑?p(C)λ1?(C)=p(?∣w=1)
當(Xn(i),yn)?A?(n)(\mathcal{X}^n(i),y^n) \notin A_{\epsilon}^{(n)}(Xn(i),yn)∈/?A?(n)?時,錯誤會發生。記事件Ei={(Xn(i),yn)∈A?(n)}E_i = \{(\mathcal{X}^n(i),y^n) \in A_{\epsilon}^{(n)}\}Ei?={(Xn(i),yn)∈A?(n)?},則根據Bonferroni不等式
p(E∣w=1)=p(E1C∪E2∪?E2nR)≤p(E1C∣w=1)+∑i=22nRp(Ei∣w=1)p(\Epsilon|w=1) = p(E_1^C \cup E_2 \cup \cdots E_{2^{nR}}) \\ \le p(E_1^C|w=1) + \sum_{i=2}^{2^{nR}} p(E_i|w=1)p(E∣w=1)=p(E1C?∪E2?∪?E2nR?)≤p(E1C?∣w=1)+i=2∑2nR?p(Ei?∣w=1)
根據Joint AEP的性質1:
p(E1C∣w=1)=p(Xn(i),yn)?A?(n))≤?p(E_1^C|w=1) = p(\mathcal{X}^n(i),y^n) \notin A_{\epsilon}^{(n)}) \le \epsilonp(E1C?∣w=1)=p(Xn(i),yn)∈/?A?(n)?)≤?
考慮p(Ei∣w=1)=p(Xn(i),yn)?A?(n))p(E_i|w=1) = p(\mathcal{X}^n(i),y^n) \notin A_{\epsilon}^{(n)})p(Ei?∣w=1)=p(Xn(i),yn)∈/?A?(n)?)
因為yny^nyn是碼Xn(1)\mathcal{X}^n(1)Xn(1)經過噪聲信道傳輸到接收端的解碼器的,并且Xn(1)\mathcal{X}^n(1)Xn(1)與Xn(i)\mathcal{X}^n(i)Xn(i)是獨立的,因此Xn(i),yn\mathcal{X}^n(i),y^nXn(i),yn是獨立的,所以根據Joint AEP性質3:
p(Ei∣w=1)≤2?n(I(X;Y)?3?)p(E_i|w=1) \le 2^{-n(I(X;Y)-3\epsilon)}p(Ei?∣w=1)≤2?n(I(X;Y)?3?)
帶入到錯誤率中
p(E1C∣w=1)≤?+2nR2?n(I(X;Y)?3?)=?+2?n(I(X;Y)?R?3?)p(E_1^C|w=1) \le \epsilon + 2^{nR} 2^{-n(I(X;Y)-3\epsilon)}=\epsilon + 2^{-n(I(X;Y)-R-3\epsilon)}p(E1C?∣w=1)≤?+2nR2?n(I(X;Y)?3?)=?+2?n(I(X;Y)?R?3?)
要讓這個上界收斂,需要2?n(I(X;Y)?R?3?)2^{-n(I(X;Y)-R-3\epsilon)}2?n(I(X;Y)?R?3?)被?\epsilon?控制,從而
R<I(X;Y)?3?R < I(X;Y) - 3\epsilonR<I(X;Y)?3?
這里就可以看出信道容量的形式了,錯誤率也被控制住了。下面再從平均錯誤率到最大錯誤率,看看結論會不會變。
最大錯誤率
已經證明了p(E)≤2?p(\Epsilon) \le 2\epsilonp(E)≤2?,因此
p(E)=∑?Cp(C)p(E∣C)≤2?p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C}) p(E|\mathcal{C}) \le 2\epsilonp(E)=?C∑?p(C)p(E∣C)≤2?
?C?\exists \mathcal{C}^*?C?,p(E∣C?)≤2?p(\Epsilon|\mathcal{C}^*) \le 2 \epsilonp(E∣C?)≤2?。其中
p(E∣C?)=12nR∑i=12nRλi(C?)p(\Epsilon|\mathcal{C}^*) = \frac{1}{2^{nR}} \sum_{i=1}^{2^{nR}} \lambda_i(\mathcal{C}^*)p(E∣C?)=2nR1?i=1∑2nR?λi?(C?)
根據這個表達式我們可以判斷,在這2nR2^{nR}2nR個錯誤率λi(C?)\lambda_i(\mathcal{C}^*)λi?(C?)中,至少有一半是比4?4\epsilon4?更小的。將更小的這一半作為一個新的codebook,則新的codebook共有2nR?12^{nR-1}2nR?1個code,最大錯誤率會比4?4\epsilon4?小。注意到此時的傳輸率為
log?22nR?1/n=R?1n→R\log_2 2^{nR-1}/n = R - \frac{1}{n} \to Rlog2?2nR?1/n=R?n1?→R
即傳輸率不會受到影響,定理結果不變。
逆命題的證明
考慮w→Xn(w)→yn→w^w \to \mathcal{X}^n(w) \to y^n \to \hat{w}w→Xn(w)→yn→w^這個數據過程是一個Markov Chain。根據Fano不等式:
H(E)≤h(p(E))+p(E)log?2(M)=h(p(E))+nRp(E)≤1+nRp(E)H(E) \le h(p(E)) + p(E) \log_2 (M) \\ = h(p(E)) + nRp(E) \le 1 +nRp(E) H(E)≤h(p(E))+p(E)log2?(M)=h(p(E))+nRp(E)≤1+nRp(E)
因為信號是{1,2,?,M}\{1,2,\cdots,M\}{1,2,?,M}上的均勻分布,根據數據處理不等式
H(w)=nR=H(w)?H(w∣w^)+H(w∣w^)=I(w;w^)+H(w∣w^)≤I(w;w^)+1+nRp(E)≤I(Xn(w);yn)+1+nRp(E)H(w) = nR = H(w) - H(w|\hat{w}) + H(w|\hat{w}) \\= I(w;\hat{w}) + H(w|\hat{w}) \le I(w;\hat{w}) + 1 + nRp(E) \\ \le I(\mathcal{X}^n(w);y^n) +1 + nRp(E) H(w)=nR=H(w)?H(w∣w^)+H(w∣w^)=I(w;w^)+H(w∣w^)≤I(w;w^)+1+nRp(E)≤I(Xn(w);yn)+1+nRp(E)
其中
I(Xn(w);yn)=H(yn)?H(yn∣Xn(w))=H(yn)?∑i=1nH(yi∣Xn(w),yi?1)I(\mathcal{X}^n(w);y^n) = H(y^n) - H(y^n|\mathcal{X}^n(w)) \\ = H(y^n) - \sum_{i=1}^n H(y^i|\mathcal{X}^n(w),y^{i-1})I(Xn(w);yn)=H(yn)?H(yn∣Xn(w))=H(yn)?i=1∑n?H(yi∣Xn(w),yi?1)
根據噪聲信道的無記憶性,如果Xn(w)=(x1,?,xn)\mathcal{X}^n(w)=(x^1,\cdots,x^n)Xn(w)=(x1,?,xn),
I(Xn(w);yn)=H(yn)?∑i=1nH(yi∣xi)≤∑i=1nH(yi)?∑i=1nH(yi∣xi)=∑i=1nI(xi;yi)≤∑i=1nmax?I(X;Y)=nCI(\mathcal{X}^n(w);y^n) = H(y^n) - \sum_{i=1}^n H(y^i|x^i) \\ \le\sum_{i=1}^n H(y^i) - \sum_{i=1}^n H(y^i|x^i) = \sum_{i=1}^n I(x_i;y_i) \\ \le \sum_{i=1}^n \max I(X;Y) = nCI(Xn(w);yn)=H(yn)?i=1∑n?H(yi∣xi)≤i=1∑n?H(yi)?i=1∑n?H(yi∣xi)=i=1∑n?I(xi?;yi?)≤i=1∑n?maxI(X;Y)=nC
因此
nR≤nC+1+nRp(E)?R≤C+Rp(E)+1nnR \le nC + 1 + nRp(E) \Rightarrow R \le C + Rp(E) + \frac{1}{n}nR≤nC+1+nRp(E)?R≤C+Rp(E)+n1?
假設RRR是可實現的,則n→∞n \to \inftyn→∞時,
1n→0,p(E)→0\frac{1}{n} \to 0, p(E) \to 0n1?→0,p(E)→0
則R≤CR \le CR≤C
總結
以上是生活随笔為你收集整理的UA MATH636 信息论5 信道编码定理的证明的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: UA MATH636 信息论5 信道编码
- 下一篇: UA MATH564 概率论IV 次序统