【数学与算法】协方差矩阵 与 w*w^T 的关系
下面的二維向量W?\vec WW只是一個樣本,對于多個樣本才能談論協方差,因為協方差和方差是求一系列樣本的協方差和方差,單個樣本并沒有協方差這一說。
下面公式中的求w1w1w1的期望和方差,是求所有樣本的w1\displaystyle\color{blue}w1w1特征的期望和方差。
不過下面的W?W?T\displaystyle\color{blue}\vec{W}\vec{W}^TWWT不叫協方差矩陣,因為各個特征(例如w1\displaystyle\color{blue}w1w1)沒有減去平均值(又叫期望),只有減去平均值(期望)的之后才能叫協方差矩陣,除非期望為0,最后還得除以樣本數目,才是協方差矩陣。
W?=[w1w2]\vec W = \begin{bmatrix} w1\\ w2\\ \end{bmatrix}W=[w1w2?]
那么對于w1和w2w1和w2w1和w2期望為0的W?\displaystyle\color{blue}\vec{W}W協方差矩陣為:
P=E(W?W?T)\displaystyle\color{blue}P = E(\vec{W}\vec{W}^T)P=E(WWT)
注意,上面的協方差是對W?W?T\displaystyle\color{blue}\vec{W}\vec{W}^TWWT求期望,并非協方差=W?W?T\displaystyle\color{blue}協方差=\vec{W}\vec{W}^T協方差=WWT。
W?W?T=[w1w2][w1w2]=[w12w1?w2w1?w2w22]\vec{W}\vec{W}^T= \begin{bmatrix} w1\\w2\\ \end{bmatrix} \begin{bmatrix} w1\ w2\\ \end{bmatrix} =\begin{bmatrix} w1^2&w1*w2\\\quad\\ w1*w2&w2^2\end{bmatrix}WWT=[w1w2?][w1?w2?]=???w12w1?w2?w1?w2w22????
對上面等式求期望:
E[w12w1?w2w1?w2w22]=[E(w12)E(w1?w2)E(w1?w2)E(w22)]E\begin{bmatrix} w1^2&w1*w2\\ w1*w2&w2^2\end{bmatrix} =\begin{bmatrix} E(w1^2)&E(w1*w2)\\\quad\\ E(w1*w2)&E(w2^2)\end{bmatrix}E[w12w1?w2?w1?w2w22?]=???E(w12)E(w1?w2)?E(w1?w2)E(w22)????
方差的性質:
Var(x)=E(x2)?E2(x)(1)\displaystyle\color{blue}Var(x) = E(x^2) - E^2(x) \tag{1}Var(x)=E(x2)?E2(x)(1)
如果W?\displaystyle\color{blue}\vec WW的兩個特征w1,w2\displaystyle\color{blue}w1,w2w1,w2都服從正態分布,那么:
期望為0,即:
{E(w1)=0E(w2)=0\color{blue} \begin{cases} E(w1) = 0\\\\ E(w2) = 0 \end{cases} ??????E(w1)=0E(w2)=0?
那么,可以得到:
{Var(w1)=E(w12)Var(w2)=E(w22)\color{blue} \begin{cases} Var(w1) = E(w1^2)\\\\ Var(w2) = E(w2^2) \end{cases} ??????Var(w1)=E(w12)Var(w2)=E(w22)?
我們還可以求出w1,w2\displaystyle\color{blue}w1,w2w1,w2的協方差:
Cov(w1,w2)=E(w1?w2)\displaystyle\color{blue}Cov(w1,w2) = E(w1*w2)Cov(w1,w2)=E(w1?w2)
因此:
E(W?W?T)=[Var(w1)Cov(w1,w2)Cov(w1,w2)Var(w2)](2)E(\vec{W}\vec{W}^T)=\begin{bmatrix} Var(w1)&Cov(w1,w2)\\\quad\\Cov(w1,w2)&Var(w2)\end{bmatrix} \tag{2}E(WWT)=???Var(w1)Cov(w1,w2)?Cov(w1,w2)Var(w2)????(2)
上面對等式求期望的那一步,其實就是求期望,只不過E(w12)\displaystyle\color{blue}E(w1^2)E(w12)其實是對很多樣本的w1\displaystyle\color{blue}w1w1求期望,也就是除以樣本數量。
證明過程:
下面是以三個樣本為例求W?W?T\displaystyle\color{blue}\vec{W}\vec{W}^TWWT,右上角標表示樣本編號:
左邊矩陣每列是一個樣本,用左上角小括號標注,下面是3個樣本。
W?W?T=[w1(1)w1(2)w1(3)w2(1)w2(2)w2(3)]?[w1(1)w2(1)w1(2)w2(2)w1(3)w2(3)]=[(w1(1))2+(w1(2))2+(w1(3))2w1(1)?w2(1)+w1(2)?w2(2)+w1(3)?w2(3)w1(1)?w2(1)+w1(2)?w2(2)+w1(3)?w2(3)(w2(1))2+(w2(2))2+(w2(3))2]\vec{W}\vec{W}^T=\begin{bmatrix} w_1^{(1)}&w_1^{(2)}&w_1^{(3)}\\ w_2^{(1)}&w_2^{(2)}&w_2^{(3)}\\ \end{bmatrix} *\begin{bmatrix} w_1^{(1)}&w_2^{(1)}\\ w_1^{(2)}&w_2^{(2)}\\ w_1^{(3)}&w_2^{(3)}\end{bmatrix}=\\ \\\quad\\ \begin{bmatrix} (w_1^{(1)})^2+(w_1^{(2)})^2+(w_1^{(3)})^2 && w_1^{(1)}*w_2^{(1)}+w_1^{(2)}*w_2^{(2)}+w_1^{(3)}*w_2^{(3)}\\ \\\quad w_1^{(1)}*w_2^{(1)}+w_1^{(2)}*w_2^{(2)}+w_1^{(3)}*w_2^{(3)} && (w_2^{(1)})^2+(w_2^{(2)})^2+(w_2^{(3)})^2\end{bmatrix}WWT=[w1(1)?w2(1)??w1(2)?w2(2)??w1(3)?w2(3)??]?????w1(1)?w1(2)?w1(3)??w2(1)?w2(2)?w2(3)??????=????(w1(1)?)2+(w1(2)?)2+(w1(3)?)2w1(1)??w2(1)?+w1(2)??w2(2)?+w1(3)??w2(3)???w1(1)??w2(1)?+w1(2)??w2(2)?+w1(3)??w2(3)?(w2(1)?)2+(w2(2)?)2+(w2(3)?)2?????
上面式子的w1w1w1和w2w2w2雖然期望為0,所以例如w1(1)w_1^{(1)}w1(1)?這樣的每個樣本的每個特征都可以說已經做過減去均值的運算,但并沒有除以樣本數量3。矩陣中每項只有再除以樣本數量之后,才是協方差矩陣。
下面對它的矩陣中每項除以樣本數量3后:
- 左上角元素就是w1w1w1的方差Var(w1)Var(w1)Var(w1);
- 右上角元素就是w1,w2w1,w2w1,w2的協方差Cov(w1,w2)Cov(w1,w2)Cov(w1,w2);
- 左下角元素就是w1,w2w1,w2w1,w2的協方差Cov(w1,w2)Cov(w1,w2)Cov(w1,w2);
- 右下角元素就是w2w2w2的方差Var(w2)Var(w2)Var(w2);
就得到了下面的式子:
E(W?W?T)=[Var(w1)Cov(w1,w2)Cov(w1,w2)Var(w2)]E(\vec{W}\vec{W}^T)=\begin{bmatrix} Var(w1)&Cov(w1,w2) \\\quad\\ Cov(w1,w2)&Var(w2)\end{bmatrix}E(WWT)=???Var(w1)Cov(w1,w2)?Cov(w1,w2)Var(w2)????
上面的式子只針對期望為0的特征。
總結:
二維向量W?=[w1w2]\vec W = \begin{bmatrix} w1\\ w2\\ \end{bmatrix}W=[w1w2?]的協方差矩陣 與W?W?T\vec{W}\vec{W}^TWWT之間可以經過轉化得到,只差兩步:
- 1.減去均值(期望);
- 2.除以樣本數量。
總結
以上是生活随笔為你收集整理的【数学与算法】协方差矩阵 与 w*w^T 的关系的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【数学和算法】初识卡尔曼滤波器(三)
- 下一篇: 【数学和算法】初识卡尔曼滤波器(四)