matlab向量归一化_已知近似的特征值,求特征向量
生活随笔
收集整理的這篇文章主要介紹了
matlab向量归一化_已知近似的特征值,求特征向量
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
對于矩陣A, 已知它的一個近似的特征值,
.一般特征值問題在已知特征值后,可確定齊次線性方程 , 是一個齊次線性方程組,且有非零解,即可用null解得其解空間。然而, 在數值上行列式不嚴格為零,則無法用null求得非零解,此時,預設一個 ,形成方程:, ,
不斷循環,最后再將結果歸一化,可收斂至近似的特征向量。 A
運行結果:
V =-0.9923 0.1113 -0.0447 -0.02180.0574 0.1589 -0.0903 -0.96640.0725 0.3513 -0.9249 0.23720.0826 0.9159 0.3666 0.0970E =0.9546 0 0 00 4.2419 0 00 0 2.8804 00 0 0 1.9230Vec0 =0.9924-0.0581-0.0716-0.0811可以注意到,即使是在隨機取的初始向量的情況下,僅需兩次迭代,即可得到比較準確的特征向量。(若已知近似的特征向量,僅需1次迭代即可獲得高精度特征向量)。這說明,在已知近似的特征值后,可以以較高的效率求得特征向量。進而用
求得準確的特征值。該方法收斂性證明見:http://homepage.divms.uiowa.edu/~atkinson/m171.dir/sec_9-6.pdf
注:1. 利用Gersgorin圓盤定理判定特征值的范圍,若特征值范圍較小,則可更快速地估計特征向量及更準確的特征值。
2. 對一些在線數據,新增加的數據對已有的數據的統計量(如協方差矩陣)影響較小,這時可用以上方法快速估計特征向量。效率比每次都做特征值分解高。
——補充———
補充計算了一個100維矩陣的特征值分解,發現matlab的eig函數效率還是比較高的,而在已知近似特征值的情況下,需要對每個特征向量做非齊次方程求解。相較之下效率與直接eig相差不大(或許是for循環速度慢)。
clc總結
以上是生活随笔為你收集整理的matlab向量归一化_已知近似的特征值,求特征向量的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python基础笔记_python基础学
- 下一篇: 用python分析小说_用Python对