考研线性代数深入理解
文章目錄
- 文章目的
- 閱前注意
- 向量、矩陣、基、極大無關組、Span
- 重要前提:
- 向量
- 矩陣
- 矩陣乘法的含義,方程組解與函數的解
- 向量組與空間、矩陣與方程組
- 向量、矩陣、變換、線性空間、向量組的相關性,線性方程組的解空間合集(手寫版字很丑,)
- 坐標變換和基變換
- 向量
- 坐標變換
- 基變換
- 特征值和特征向量
- 特征向量
- 為了求特征向量
- 特殊變換的特征值與特征向量
- 關于相似的秩問題
文章目的
考研過程中覺得考研輔導教材絲毫沒有給線代一個直觀的理解, 只是讓你計算, 然而很多題目, 定理, 公式, 如果沒有直觀的理解, 就需要你強行記住定理, 以及現場推導。 這嚴重影響了我做題的速度。
因此在參考B站線性代數的本質的基礎上, 講線代的直觀理解應用到考研范圍的題目上來, 賜你屠龍刀
特征向量之前的向量組是自己興起手推總結的, 一不小心就寫了很多,雖然字很丑。
特征向量是發現效果不錯, 所以打了Markdown版本的
閱前注意
向量、矩陣、基、極大無關組、Span
重要前提:
我們研究的線性代數, 都有一個默認基,也就是直角坐標系EEE, 以下會稱其為標準基,簡稱標基。
向量符號不會給出箭頭, 大寫字母均代表矩陣 ,小寫字母代表向量, 或者是數乘的時候的實數(或者說一維的矩陣),[x1,x2,...xn][x_1,x_2,...x_n][x1?,x2?,...xn?]這樣描述的時候, 自行理解這是向量xxx的每個分量, 還是一個矩陣XXX的列向量/行向量組
向量
向量在數學上是一組數, 物理上是矢量,計算機里是一個數組,
在幾何空間中可以表示坐標。
考研中,如果和基結合來看, 就是基向量的線性組合, 放到基空間里, 就是基空間里的一個向量, 或者說一個坐標點
注:線性組合就是對應相乘再相加
看下面的等式
Ax=[a1,a2,..,an]x=[a1,a2,..,an][x1,x2,...,xn]T=x1a1+x2a2+...+xnan=y{Ax = [a_1,a_2,..,a_n]x = [a_1,a_2,..,a_n][x_1,x_2,...,x_n]^T }\\ {= x_1a_1+x_2a_2+...+x_na_n = y } Ax=[a1?,a2?,..,an?]x=[a1?,a2?,..,an?][x1?,x2?,...,xn?]T=x1?a1?+x2?a2?+...+xn?an?=y
一行4個=, 5個表達, 是完全等價的,
矩陣乘向量(變換) = 基空間A的x向量 = [基向量]*的線性組合 = y(標系下的向量、坐標、線性組合)
你理解到什么程度就可以了呢?,你看到下面這個式子能想到上面的任何一個就過關了
x1a1+x2a2+...+xnan{x_1a_1+x_2a_2+...+x_na_n} x1?a1?+x2?a2?+...+xn?an?
這不是相乘相加
這是基向量的線性組合, 是兩個向量內積(一維空間直線上的點), 或者說高維空間中的一個點。
并且在腦海里能大致想到這個空間, 和點即可
矩陣
矩陣是一組向量,和向量一樣定義的, 分塊后就沒區別, 也叫二維張量
矩陣在考研里有兩個角色。 一是變換,二是向量組
在做矩陣乘法的時候, 矩陣就可以看成變換
Ax=b這里的A就是變換Ax=b 這里的A就是變換Ax=b這里的A就是變換
當然也可以看成向量組
A=[a1,a2,..,an]A=[a_1,a_2,..,a_n]A=[a1?,a2?,..,an?]
矩陣乘法的含義,方程組解與函數的解
Ax=bAx=bAx=b
你可以看成時,將x做A變換,變成了b
也可以看成是,A空間中的x就是標空間中的b
如果你把x看成一個變量(實際上是一組變量)的話,不同的x產生不同的Ax(線性組合), 也就描述了整個A空間的任何一個向量, Ax=bAx=bAx=b就是找到A空間中對應b的那個線性組合
更數學一點,你把x看成是自變量,Ax看成是自變量的函數, 變成了F(X) = b,就是解了
不過我們線代的函數是線性函數(線性變換),自變量,因變量也都是向量或者矩陣。
解當然也是向量, 通解就是整個解空間
向量組與空間、矩陣與方程組
假設An?mA_{n*m}An?m?
行滿秩,行向量全都線性無關, 從列的角度來看, 就是所有列向量張成了n維空間。
可以保證Ax=bAx=bAx=b有解
列滿秩, 列向量組全都線性無關,列向量是一個極大無關組。假高維,實際只張成了m維空間
不能保證Ax=bAx = bAx=b有解
唯一解就是,b和Ax相同維度, 有唯一表示(直線在平面上)
無解就是, 目標b維度高了, Ax表示不了(直線不在平面上)
無窮解就是Ax維度高, 有一個零空間可以表示b(一族向量,投影到數軸上的同一個點,或者說一族平面, 投影到平面上的一條線)
向量、矩陣、變換、線性空間、向量組的相關性,線性方程組的解空間合集(手寫版字很丑,)
坐標變換和基變換
向量
以前說了向量是一組數, 可以看成是在基下的坐標 ,也基向量的線性組合
坐標變換
注:坐標就是向量,變換就是矩陣乘法
Ax=yAx=yAx=y
xxx對AAA的一個線性組合計算出來的結果就是在標準坐標系中的表述yyy
注:AAA的基(所有列向量)是在標準坐標系下描述的。更寬泛的來說, 任何我們寫的向量和矩陣都是默認在標系下表述的
所以他們的**線性組合** AxAxAx 也是標系的一個向量 yyy
而矩陣乘法AX=BAX=BAX=B不過是
A[x1,x2,...xn]=[b1,b2,...bn]A[x_1,x_2,...x_n]=[b_1,b_2,...b_n]A[x1?,x2?,...xn?]=[b1?,b2?,...bn?]
the transformation Axi=biAx_i=b_iAxi?=bi? be applied by n times
注:我今后將任何標準坐標系下的向量或者矩陣, 都叫做標述, 標準坐標系叫做標系
坐標變換做的事可以從坐標變換和基變換的角度來理解
坐標變換
對xxx施加AAA變換
基變換
在基變換AAA的情況下xxx表示的向量(線性組合)在標系下的表述yyy
注:基可以對于向量來說可以理解成語言, 向量是描述, A語言下x的描述, 在標準語言下是y
比如一個單詞shabby, 你讀起來會誤以為它是shabi的意思, 但是經過A語言翻譯到中文, 這就是破舊的意思。
那反過來, 要把一個標準表述變成基A表述只要做逆變換即可
x=A?1yx=A^{-1}yx=A?1y
基變換
如何對基AAA下的坐標作一個在標系下表示的變換
maybe above sentence can easily be understood by reading following words “make a vector in basis A be applied a transform that in basis standard”
因為我們默認任何矩陣和向量都是標系下的, 所以你如果不變基的話是不能做到對**基A下的坐標施加同一變換**的。
注:同一變換比如逆時針旋轉90’在不同坐標系下是不一樣的(至少大多數情況下是不一樣的),這也就是相似對角化其實就是為了做這種事。
我截取了視頻中最重要的部分內容描述基變換
這樣基變換的目的就很明顯了
首先我們的矩陣和向量都是在標系下的,因此, 你的變換矩陣transformation is also in standard basis。
而我想要知道的是相同的變換在基A下, 用我們的語言描述(標系下表示)是什么樣的
注:區分變換CCC和A?1CAA^{-1}CAA?1CA.
實際上, 上述例子的本質是把一個基先變換成標系(直角坐標系)再作變換,再變回原來的基下。這樣比直接找到一個D=A?1CAD=A^{-1}CAD=A?1CA 更加的容易
注:怎么理解直角坐標系, 相互正交,而一般對角矩陣正是這樣的。
特征值和特征向量
特征向量
首先應該討論特征向量。特征值只是一個副產品而已,因為線代討論的主體是向量而非實數
特征向量是一個矩陣(變換)施加在上面時, 只會改變大小的向量,改變的大小λ\lambdaλ
注:你可以把特征換成伸縮, 伸縮向量, 伸縮值
為了求特征向量
Aα=λαA\alpha = \lambda \alphaAα=λα
Aα=λEαA\alpha = \lambda E \alphaAα=λEα
(A?λE)α=0→(A-\lambda E) \alpha = \overrightarrow0(A?λE)α=0
變成了解線性方程組, 或者說找零空間
∣A?λE∣|A-\lambda E|∣A?λE∣會是一個特征多項式,∣A?λE∣=0|A-\lambda E|=0∣A?λE∣=0是一個特征方程
特征方程的根三種情況
-
無根(考研不考慮)
-
單根(該特征值解的零空間至少1維,至多1維)
-
k重根(該特征值解的零空間至少1維,之多k維)
對應λi\lambda_iλi?零空間里的所有向量αij\alpha_{ij}αij?
Aαij=λiαijA\alpha_{ij} = \lambda_i \alpha_{ij}Aαij?=λi?αij?
零空間可以用基向量(=基礎解系,=極大線性無關組,后都說成基礎解系)來表述
注:
一個前提:考研大題只討論實對稱陣, 二次型矩陣都能表示實對稱陣, 實對稱陣一定可以相似對角化, 同樣一定可以正交化
一個結論:不同特征值對應的特征向量一定線性無關,也即基礎解系增廣的向量組線性無關。
顯然如果所有的基礎解系得到的向量組有n個線性無關的特征向量的話。
將這個向量組成為∣P∣≠0,P=[α1,α2,...,αn]|P|\ne0,P = [\alpha_1,\alpha_2,...,\alpha_n]∣P∣?=0,P=[α1?,α2?,...,αn?] 稱之為特征基(伸縮基)
Aα1=λα1=[α1,α2,...,αn][λ1,0,0,...,0]T=P[λ1,0,0,...,0]TA\alpha_1 = \lambda \alpha_1 = [\alpha_1,\alpha_2,...,\alpha_n][\lambda_1,0,0,...,0]^T = P[\lambda_1,0,0,...,0]^TAα1?=λα1?=[α1?,α2?,...,αn?][λ1?,0,0,...,0]T=P[λ1?,0,0,...,0]T
對于P有 $AP = P \Lambda , $
注:注意時右乘對角陣(Ax)這里的x也是右乘的。
由于P可逆, A=PΛP?1A =P\Lambda P^{-1}A=PΛP?1
對應的 $P^{-1}AP =\Lambda $
注:下面的考研這樣理解就慢了,
直接記上面的
“P逆AP“
”P lambda P逆“
特征基下的A變換, 就是標基的對角變換
也就是如果你要做標基的AnA^nAn, 你可以考慮先做P?1P^{-1}P?1的基變換,
然后施加Λn\Lambda ^ nΛn變換, 再PPP回來
特殊變換的特征值與特征向量
| 特征值 | λ\lambdaλ | kλ+bk\lambda+bkλ+b | λn\lambda^nλn | λ?1\lambda^{-1}λ?1 | $ | A |
| 特征向量 | α\alphaα | α\alphaα | α\alphaα | α\alphaα | α\alphaα | P?1αP^{-1}\alphaP?1α |
首先逆把A=PΛP?1A =P\Lambda P^{-1}A=PΛP?1帶入B中, 根據定義能現場退出來
直觀理解上表
因為特征向量是伸縮向量, 伸縮大小改變不改變向量的方向
k倍的伸縮是不改變特征向量的, 所以線性變換只改變了特征值
你伸縮n次就是n次方倍
你逆著伸縮,就是倒數倍
對于方陣A?=∣A∣A?1A^* =|A|A^{-1}A?=∣A∣A?1
B相似, 特征多項式相同, 特征向量單獨推
關于相似的秩問題
首先你要分清楚, 你研究的矩陣是AAA還是PPP
∣A∣=0|A|=0∣A∣=0只能說存在特征值0,這就可以結合前面Ax=0Ax=0Ax=0來解決問題了
而∣P∣=0|P| = 0∣P∣=0的話說明有k重根的基向量<k,也就是維度不夠, 也就不能對角化
總結
以上是生活随笔為你收集整理的考研线性代数深入理解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 音频识别(Audio Classific
- 下一篇: linux命令格式和常用命令