矩阵的特征值与特征向量的应用论文,矩阵的特征值和特征向量总结
特征值和特征向量的讲解有很多教程,把这些枯燥的数学基础应用到他们实际的计算机视觉实验中,是一个非常重要的任务。算法的底层其实是各种数学公式的组合和推导。有时候并不是我们不能很好的理解这些算法的基础,而是没有一个好的教程带领我们这些骨瘦如柴的向日葵从底层一步一步的学习。写博客的目的一方面是记录自己的总结,另一方面是用自己的白话文描述这些专业术语和观点,便于理解和学习。(以上纯属个人观点)
矩阵矩阵矩阵
首先,我们把矩阵比作跑步。跑步最重要的是知道两个要素的方向(往哪个方向跑)和速度(我想跑多快)。矩阵的特征向量是运行方向,矩阵的特征值是运行速度。(这个比喻只是为了帮助你理解如何将数学概念转化为实际应用)
-线性变换-线性变换
我们知道,矩阵乘法对应一个变换,就是把任意一个向量变成另一个方向或长度大多不同的新向量。在变换过程中,原始向量主要发生旋转和扩展变化。如果一个矩阵的某个向量或某些向量只进行伸缩变换,而不具有旋转的作用,那么这些向量称为这个矩阵的特征向量,伸缩比就是特征值。其实上一段不仅讲了矩阵变换特征值和特征向量的几何意义(图形变换)也讲了物理意义。物理意义是运动的图景:特征向量在矩阵的作用下做伸缩运动,伸缩运动的幅度由特征值决定。特征值大于1,属于这个特征值的所有特征向量都是暴长的;当特征值大于0小于1时,特征向量急剧收缩;特征值小于0,特征向量收缩越界,反方向到0点。关于特征值和特征向量,这里请注意两个亮点。这两个亮点一个是线性不变量的意义,一个是振动的谱意义。
所谓线性变换(旋转、伸缩),就是向量在不同的基(其实就是单位特征向量组成的坐标系)之间变化。下图显示了使用的基础和原点:
1.总和基数下有一个(如左图所示):2。左边乘以一个矩阵A得到下图(如中间图所示):3。左边乘以一个矩阵A得到下图(如右图所示):
3.下面换个方向:(如左图)4。左边乘以一个矩阵A得到下图(如右图所示):
得出结论:
如果有一个向量或某些向量在A作用后刚好拉伸或缩短,其位置仍停留在其原dtdhd的直线上,则称之为A的特征向量,拉伸或缩短的倍数称为对应特征向量的特征值。
1.没有改变方向的A在同一条直线上,但是A的长度比A短,缩短了倍,这就是矩阵A的特征值,对应的A就是矩阵A的特征向量。
2.改变方向后,与A在同一直线上,但A的长度比A长,是矩阵A的特征向量,而A长了倍,也是矩阵A的特征值,即在矩阵A的作用下,保持方向不变,拉伸一倍。可写:
(从上面的结果可以看出,矩阵A的特征值和特征向量不止一个,特征向量所在直线上的向量都是特征向量)
特征向量所在的直线包含所有的特征向量,共同构成特征空间。
(两个红色箭头分别是最大特征值和最小特征值,构成了特征空间,变化的位置,矩阵a的值,特征空间会随着矩阵的变化而变化,也就是上面比喻说的运行,最大速度的方向用最大特征值对应的特征向量来表示。)
特征向量是线性不变量:特征向量概念的一大亮点是不变量,这里称为线性不变量。因为我们常说的线性变换就是把一条线(向量)变成另一条线(向量),一条线的方向和长度一起变化。但有一类名为“特征向量”的向量比较特殊,它的方向只是在矩阵的作用下改变其长度。方向不变的性质叫做线性不变。(特征向量被称为“特征”,因为它具有恒定的特征)
特征值和特征向量属性:
1.只有方阵才有特征值和特征向量。
方阵总有特征值,因为总有特征多项式(特征方程),但不是所有方阵都有实特征解。
实方阵必有实特征解。
2.不同特征值对应的特征向量线性无关。
3.对于实对称矩阵或Hermite矩阵,不同特征值对应的特征向量必须是正交的(互相垂直)
-示例
以对角矩阵为例:
-相似矩阵-相似矩阵
设A和B是n阶矩阵,若有可逆矩阵P且AP=B,则B是A的相似矩阵,或者A和B相似。
应用的几何意义是:同一线性变换在不同基中的表达形式(类似于图像不会从直角坐标变换到极坐标)。(掌握相似矩阵的性质)
-对角矩阵-对角矩阵
对角矩阵是主对角线以外的元素都为0的矩阵,常写成diag(a1,a2,…,an)。对角矩阵可以被认为是最简单的矩阵。值得一提的是,对角线上的元素可以是0或其他值,对角线上元素相等的对角矩阵称为数量矩阵;对角元素全为1的对角矩阵称为单位矩阵。对角矩阵的运算包括和、差、数乘、同阶对角矩阵的积,结果仍然是对角矩阵。
-矩阵对角化:对于n阶矩阵A,可以从010到59000求可逆矩阵P,使AP=对角矩阵,这叫对角化方阵A。
矩阵对角化的充要条件:n阶矩阵有n个线性无关的特征向量。
推论:如果n阶方阵A有n个不同的特征值,那么A可以对角化。而且:1。对角矩阵的主对角元素是A的特征值.2.可逆矩阵P由A的n个线性独立的特征向量作为列向量组成。
对角化是有条件的,这里用的是特征向量。只有找到A的N个线性无关的特征向量,才能平滑对角化A。
根据特征值和特征向量,求矩阵的相似对角矩阵是很有意义的。
示例:
-
特征值分解。
首先解释为什么这些值叫做特征值,这些向量叫做特征向量。因为:
1.在相似变换中,这些东西是不变的,其他不变性质可以由特征值的不变性推导出来;所以特征值是这些矩阵(这类矩阵)相似集合的共同属性,当然也可以作为一个特征。
2.从几何学上讲,特征向量描述了矩阵对应的线性变换的主变换方向。线性变换对矢量的作用是膨胀(新长度)和旋转(新方向),旋转会降低拉伸的效果。特征向量只伸缩不旋转,代表这个线性变换的主要方向。然后特征值描述了这个方向的变换速度(倍数),所以对特征值进行排序,从最大到最小的特征值及其特征向量可以近似描述原矩阵的主变换方向和变换速度。
特征值分解就是寻找最相似的矩阵:
特征值分解就是将一个矩阵分解成以下形式:A=Q,
q是这个矩阵A的特征向量组成的矩阵,是对角矩阵,每个对角元素是一个特征值。其中的特征值由大到小排列,这些特征向量对应的特征向量描述了这个矩阵的变化方向(由大变小)。也就是说,矩阵A的信息可以由其特征值和特征向量来表示。
如果矩阵是高维的,那么这个矩阵就是高维空间中的线性变换。可想而知,这个转型也有很多转型方向。特征值分解得到的前N个特征向量对应这个矩阵最重要的N个变化方向。我们可以用这前n个变化方向来近似这个矩阵(变换)。
综上所述,特征值分解可以得到特征值和特征向量。特征值说明这个特征有多重要,特征向量说明这个特征是什么。但是特征值分解有很多限制,比如变换后的矩阵必须是方阵。
-图像压缩中的具体应用,比如有一幅512512的图像(只有方阵有其特征值),可以放入一个矩阵中,即把每个像素的颜色值填入一个512 512 512 A的矩阵中。根据前面的矩阵对角化,A=p,这里是对角矩阵,特征值从最大到最小排列在对角线上。我们只保留前50个特征值(也就是最大的50个,实际上只占全部特征值的10%),其他的填0。重新计算矩阵后,我们用新得到的矩阵来恢复图像,效果还是和原图差不多。
-
1.左乘法矩阵
以上操作旋转,成为标准底座(如上右图所示)。
2.继续向左乘矩阵,
得到下图:
这两个乘法对应于前面的解释。第一次乘以P特征向量(即旋转基底)相当于指出了运行方向。第二次乘以特征值表示运行速度。
因此,如果特征向量是正交的,则在基方向上可以保证变换的最大方向,而如果特征向量不是正交的,则在最大方向上不能保证变换。因此,在实际应用中需要寻找正交基,但特征向量很可能不是正交的,因此需要进行奇异值分解(SVD)。
3.在上面的基础上再左乘,基数就转化回来了。如下图:
(整个过程中,只对整个图像坐标系进行旋转和拉伸。图像没有改变)
//Python求特征值和特征向量导入numpy为NP A=NP。Array ([[2,-1],[-1,2]])一个数组([[2,-1],[-1,2]]) E,Q=NP。利纳格。EIG E #。1.]) q #特征向量作为列向量数组([[0.70710678,0.70710678],[-0.70710678,0.70710678]]) A=NP。Array ([[1,2,3],[3,2,7]q=NP . linalg . EIG(a)earray([13.50864036,-0.42667365,-2.0819667])qarray([-0.27543318,-0.6534998,-0.23748816),[-0.44255955,-0.45955Diag (e) #对角矩阵eArray ([[13.50864036,0.0.0],[0.0
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。