矩阵的意义
目錄
說明
空間
實際應用
矩陣與變換
實際應用
矩陣與方程組
矩陣的基與坐標
特殊的矩陣
矩陣的等價與相似
矩陣的相似對角化
特征向量
對角化矩陣
特征值分解
內積與相關
實際應用
行列式
???????
說明
在學習了《神奇的矩陣》,《馬同學圖解數學》,機器學習等內容后對矩陣有了一些直覺上的認識。文章不長相信大家讀完之后一定能夠明白一些矩陣的核心概念背后的物理意義。
空間
首先說空間的特質就是可以容納運動,這里的運動更加準確的來說就是一種躍遷、變換。我們可以想象在波爾的原子模型中環繞原子核的電子在吸收或者是釋放能量之后直接從這個軌道一下子變換到另一個軌道這個場景。進一步,線性空間就是就是可以容納線性變換的集合。
這里說到了集合,那么對于線程空間的它是誰的集合呢?是向量。向量不像是我們最基本認識的最直觀的向量一個有方向的有向線段,這里的向量更加的一般化是一串有序的數。首先來說這里的方向更加一般化不像我們直觀的體會到的上下左右,東西南北,而是某一個物體的某一個方面。比如大小,顏色,重量這些都是向量中的方向。而量就是它們在數值上的體現比如大象3立方米,顏色紅色,重量7千克。這樣一個向量就可以描述一個人,一個教室乃至萬事萬物。
那么如何在空間中確定一個向量呢?就是設立一組坐標系(也就是基)。這里的坐標系其實就是一些線性不相關的向量。就像三維空間中的基就是三個互相垂直的軸。在線性空間中只要找到幾個線性不相關的向量就可以表示其它任何的向量。比如在二維平面上我們一旦找到兩個相交的向量我們就能夠表示其它任何一個二維向量。當然當我們需要表示一個n維的物體的時候我們就需要找到n個不相關的向量。在一個線性空間中一個向量就是其中的一個點,或者是點到坐標原點的帶有方向的線段。同時我們也就知道一個由多個線性不相關的向量組成的矩陣就可以描述一個線性空間的坐標系。厲害吧!: - )
實際應用
在機器學習中通常將所有的樣本向量化然后丟到模型里去訓練或者是進行預測。下圖做一個簡單地示例。將一顆西瓜向量化,最后做出預測。
矩陣與變換
在這里引出一個問題,如何描述一個向量在線性空間中的運動或者是變換?其實這就是矩陣的作用,在線性空間中選定基之后向量描述對象,矩陣刻畫對象的運動用矩陣與向量的乘法來描述運動。這里的運動可以理解為伸縮和旋轉因為平移之后的向量還是同一個向量。
β = Mα中M就描述了α向量到β向量的運動。
B = MA中M就描述了一組向量{a}到{B}的運動。
由上面可以看出矩陣充當了很多的角色這里澄清一下:
①? 矩陣是坐標系?坐標系是由一堆的線性無關的向量所構成的只不過在這里是用矩陣的形式來表示。
②? 矩陣是運動的描述?是的。
③? 總的來說如果一個矩陣單獨出現那么它就描述了一個坐標系。如果它與一個向量或者是矩陣相乘的時候那么它就描述了一個變換。
實際應用
在游戲中物體的每一次運動都是一次矩陣的乘法。
矩陣與方程組
方程組的解之與系數有關,所以把系數提取出來放在一起也就成了矩陣。矩陣的行變換也就是解方程時的加減消元的過程。
方程組Ax = b的意義,方程組有解有兩種解釋。
①? 空間幾何圖形有公共的交點(線,面,超平面)。
②? 這說明b這個向量能夠用A的列向量表示,所以說明b這個向量在A的列向量所構成的空間里。比如說A = [a1,a2,…an],方程組就是x1a1 + x2a2 + …+xnan = b。這里會發生一個兼容就是在一個高維空間里放一個低維度的向量是完全ok的。這時A的秩與[Ab]的秩是一樣的(矩陣的秩表示向量構成空間的維數)。
矩陣的基與坐標
首先聲明我們討論的矩陣是非奇異的(是滿秩的矩陣)。
假設{a}是兩組同一空間中的不同的基,如果有一個矩陣M使得 = {a}M那么我們就說M實現了從基{a}到基的一個轉換。于是我們得到右乘一個矩陣就是將一組基轉換到另一組基。矩陣又一次表示了運動,左乘表示對象的變換,右乘表示坐標的變換。這也就是我們想起了相對運動,固定坐標系下的一個對象的變換相當于固定對象下的坐標系的變換。
接著上面的例子,假設{a}對應的坐標是x,對應的坐標是y那么則有Y = M-1X。左乘一個矩陣就是將一組基中的下標變成另一組基下的下標。由此可見By = Ax 就是說x經過A的變換和y經過B的變換相等就說明了y與x最后經過變換成為了同一個東西。既然是同一個東西我們就可以這樣理解有一個向量在A的基下表達為x在B的基下表達為y!而這時我們就可以把這些向量左邊乘上矩陣的這種形式看成是一種身份的識別!如Ax是在說有一個向量在A的基下表示為x在B的基下表示為y但是他們本身是同一個向量。實在是震撼!(這里的左乘與前面所說的矩陣表示運動的觀點不矛盾)
特殊的矩陣
矩陣的連乘表示變換的疊加,而變換又可以分解為旋轉與拉伸。對應到的矩陣就是旋轉對應的是旋轉矩陣,拉伸對應的是對角矩陣。順便說一句旋轉矩陣有對角矩陣的性質,它是一種對角矩陣。對于旋轉矩陣的連乘我們可以看作是把一個向量沿著多個方向的疊加。對于對角矩陣來的連乘來說就是對向量放大或縮小的疊加。而普通矩陣連乘就是旋轉與伸縮的疊加。
矩陣的等價與相似
矩陣的等價于相似都是為了簡化計算。首先說矩陣的等價。定義上來說存在可逆矩陣P和Q使得PAQ = B我們就說A和B等價。假設A就是一個M×N的矩陣,dim = {M,N}我們就可以說A是dim的一個子空間,而在變換的過程中可逆就是可以變換出去然后在變換回來既然已經可逆了那么就說明了這個變換是不改變矩陣維度的。于是我們得到了A和B的維度相同也就是A和B的秩相同。也就是他們代表了同一個維度的子空間,從可觀測和可控制的角度來看他們擁有相同的控制維數。這就是等價矩陣的意義。
上述的等價運算是一種簡化運算的方式,而相似變換的也可以達到簡化運算的效果。首先給出結論:相似矩陣就是同一個線性變換在不同基下的描述。也就是現在有一個變換如果選取坐標系1這個變換就用A來表示,如果選擇坐標系2就用B來表示。但事實上他們描述的是同一個變換。從定義來看存在可逆矩陣P滿足B = P-1AP我們就說B和A是可逆矩陣。在前面的描述中我們知道同一個空間可以由不同的坐標系來描述而且他們的坐標有對應的關系。假設現在我們選取的兩個坐標系是[α][β]則有[β] = [α]P,那么一個坐標的對應關系就是x2 = P-1x1。
假設下標為1的基為[α]下標為2的基為[β],從x到y的變化為T。則有x1經過T1得到y1,x2經過T2得到y2。我們已經知道[α][β]之間是有關系的那么T之間又怎樣的關系呢?x2 = P-1x1再加上T2的轉換就成了y2了,在y2的基礎上加一個P的轉換就得到了y1了整個過程為PT2P-1X= y1。它與T1X1 = y1是一樣的。于是就得到了T2=P-1T1P。這也就是相似矩陣的定義T1與T2為相似矩陣,原來一族矩陣就是同一個線性變換的描述。
矩陣的相似對角化
特征向量
如果存在一個矩陣它對一個向量只發生伸縮變換而不發生旋轉效果那么我們稱這個向量就是這個矩陣的特征向量。這這個矩陣對向量的作用只是伸縮,這樣我們的公式看起來就變得有意義多了Ax = λx。通過式子我們也能夠看到特征向量不是一個向量而是一個向量族同時這個向量組線性相關。
對角化矩陣
對角化矩陣的目標是簡化運算。對角化的意思就是能夠找到一組基使得A變成一個對角矩陣那么原來有關A的矩陣運算就變成了一個對角矩陣的運算(通過前面的描述我們可以知道A與這個對角矩陣是相似的,即同一個東西在不同坐標系下的表示)。對角矩陣給了我們一個簡單的角度這種感覺就像是在機器學習中的特征轉換一樣一個二維的曲線可以分割的資料有可能被一個三維的超平面線性分割;一個樣本空間中的隨機變量的分布有可能看不出什么特點來但是這個隨機變量的函數有可能有非常好的規律性;那么一個矩陣在一個空間中的其中一個坐標系下面表現的非常復雜但是在另一個坐標系下就變得異常簡單。
矩陣A對角化的條件就是在這個n維空間中能夠找到n個線性不相關的特征向量。當我們找到特征向量的時候這n個特征向量就能夠組成一個基然后去表示這個矩陣。求出特征向量再求出特征值我們就能夠將有關A與它的特征向量的運算變成數乘運算。得到的矩陣的特征值就是變化的幅度,而特征向量就是變化的方向。
機器學習上的具體應用可以看下這篇文章機器學習之非線性分割(機器學習基石)_量子智能龍哥的博客-CSDN博客_線性分割
特征值分解
也稱之為譜分解,這里這說明物理意義。一個具有良好性能的矩陣分解成多個作用的疊加,特征值和譜的乘積就代表了它對這個矩陣的貢獻,貢獻越大權重越大也就越重要。這個和PCA(主成成分分析)有相似的地方,主成成分分析就是將一個復雜的東西(函數,圖像,音頻等)分解成若干等分,然后留下主要的部分去掉次要的部分。同樣的,多項泰勒展開也的階數越高那么他的權重也就越低,所以平常我們只取一階、二階來代替全部的式子從而抓住主要的特性。奇異值分解也是這樣的原則。
內積與相關
內積可以衡量兩個函數的線性相似度(注意是線性相似度!)。它能夠代表兩個向量之間的夾角,為了消去長度帶來的影響我們通常使用余弦相似度。
當然現實中通常會出現y = ax + b的形式這樣的話就會給上面的式子帶來麻煩,對應的策略就是讓每一個x和y都減去他們對飲的期望值然后在帶入上式計算,這也就是著名的皮爾遜相關系數。
????????????????????????????????????
實際應用
在實際生活中一個簡單地余弦相似度盡然可以做出新聞的分類,比如A新聞向量與B新聞向量的余弦相似度越接近于1(兩個向量的夾角越接近于1)則表明這兩個向量越接近,那么他們非常有可能是同一類新聞(推薦閱讀吳軍老師的《數學之美》)。這是一種“距離”的度量與與平常接觸到的所謂的直線距離不同,這另一種距離的度量。有緣千里來相會(歐幾里得距離遠),無緣對面手難牽(兩個人的余弦相似度小)。
行列式
行列式有兩種意義
①? 行列式就是行列式中行或者列構成的“平行多面體”的有向體積。如果將一個行列式對應的矩陣對角化那么就很好理解了。
將行列式矩陣對角化之后就將原來的不規則的多面體變成一個規則的多面體了,它的體積是。它真的是表示幾何體的體積!那么原來不規則的體積與現在規則的體積的差別在哪里?②他們之間相差一個坐標變換矩陣的行列式。這也就是第二種解釋面積或體積的伸縮因子。行列式是有正有負的但是面積和體積都是正數,所以就有了行列式中的面積和體積的正負代表的是一個方向。比如說xyz都相反的互為鏡像。
比如說某三階方陣A3它可以將左邊的正方體變換為右邊的平行六面體(圖片來自于《馬同學圖解數學》):
平行六面體與正方體的體積之比就是三階行列式:
到此我的感想輸出完畢,感謝《神奇的矩陣》作者,馬同學,吳軍老師等優質內容生產者。
一些推薦:
除了上面的文章,《馬同學圖解數學》系列課程真的是良心之作,大家可以看看。(沒有恰飯,這套課程影響了我希望大家也能看到)
馬同學
總結
 
                            
                        - 上一篇: arccotx图像在matlab,反三角
- 下一篇: MATLAB产生数字调制基带信号(pyt
