今天给各位分享java矩阵特征分解的知识,其中也会对矩阵特征分解算法进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
本文目录一览:
1、矩阵的特征值分解和奇异值分解有什么不同2、矩阵的奇异值分解3、如何理解矩阵特征ŀ4、特征矩阵是什么呢?5、如何求解一个矩阵的特征向量?6、求矩阵特征值如何因式分解
矩阵的特征值分解和奇异值分解有什么不同
基本介绍
奇异值分解在某些方面与对称矩阵或hermite矩阵基于特征向量的对角化类似。然而这两种矩阵分解尽管有其相关性,但还是有明显的不同。对称阵特征向量分解的基础是谱分析,而奇异值分解则是谱分析理论在任意矩阵上的推广。[1]
编辑本段理论描述
假设m是一个m×n阶矩阵,其中的元素全部属于域
k,也就是
实数域或复数域。如此则存在一个分解使得
m
=
uσv*,
其中u是m×m阶酉矩阵;σ是半正定m×n阶对角矩阵;而v*,即v的共轭转置,是n×n阶酉矩阵。这样的分解就称作m的奇异值分解。σ对角线上的元素σi,i即为m的奇异值。
常见的做法是为了奇异值由大而小排列。如此σ便能由m唯一确定了。(虽然u和v仍然不能确定。)
直观的解释[2]
在矩阵m的奇异值分解中
m
=
uσv*
·v的列(columns)组成一套对m的正交”输入”或”分析”的基向量。这些向量是m*m的特征向量。
·u的列(columns)组成一套对m的正交”输出”的基向量。这些向量是mm*的特征向量。
·σ对角线上的元素是奇异值,可视为是在输入与输出间进行的标量的”膨胀控制”。这些是m*m及mm*的奇异值,并与u和v的行向量相对应。
奇异值和奇异向量,
以及他们与奇异值分解的关系
一个非负实数σ是m的一个奇异值仅当存在km
的单位向量u和kn的单位向量v如下
:
其中向量u
和v分别为σ的左奇异向量和右奇异向量。
对于任意的奇异值分解
矩阵σ的对角线上的元素等于m的奇异值.
u和v的列分别是奇异值中的左、右奇异向量。因此,上述定理表明:
一个m
×
n的矩阵至少有一个最多有
p
=
min(m,n)个不同的奇异值。
总是可以找到在km
的一个正交基u,组成m的左奇异向量。
总是可以找到和kn的一个正交基v,组成m的右奇异向量。
如果一个奇异值中可以找到两个左(或右)奇异向量是线性相关的,则称为退化。
非退化的奇异值具有唯一的左、右奇异向量,取决于所乘的单位相位因子eiφ(根据实际信号)。因此,如果m的所有奇异值都是非退化且非零,则它的奇异值分解是唯一的,因为u中的一列要乘以一个单位相位因子且同时v中相应的列也要乘以同一个相位因子。
根据定义,退化的奇异值具有不唯一的奇异向量。因为,如果u1和u2为奇异值σ的两个左奇异向量,则两个向量的任意规范线性组合也是奇异值σ一个左奇异向量,类似的,右奇异向量也具有相同的性质。因此,如果m
具有退化的奇异值,则它的奇异值分解是不唯一的。
与特征值分解的联系
几何意义
因为u
和v
向量都是单位化的向量,
我们知道u的列向量u1,…,um组成了km空间的一组标准正交基。同样,v的列向量v1,…,vn也组成了kn空间的一组标准正交基(根据向量空间的标准点积法则).
线性变换t:
kn
→
km,把向量x变换为mx。考虑到这些标准正交基,这个变换描述起来就很简单了:
t(vi)
=
σi
ui,
for
i
=
1,…,min(m,n),
其中σi
是对角阵σ中的第i个元素;
当i
min(m,n)时,t(vi)
=
0。
这样,svd理论的几何意义就可以做如下的归纳:对于每一个线性映射t:
kn
→
km,t把kn的第i个基向量映射为km的第i个基向量的非负倍数,然后将余下的基向量映射为零向量。对照这些基向量,映射t就可以表示为一个非负对角阵。
矩阵的奇异值分解
线性代数中,我们所说的矩阵的特征分解,即为:
然而,要满足特征分解,矩阵必须为方阵,否则无法直接求解特征值。
对于一般矩阵,我们如果也要对其进行分解成3个矩阵乘积 ,其中 为 的矩阵, 为 的方阵, 为 的矩阵, 为 的矩阵。
矩阵如何分解呢?首先,它应该满足一个条件,它是方的!那么如何把矩阵变成方针呢?
一个矩阵乘以它的转置即为方阵。
那么接下来的分解就是对与构造方阵的分解。还是特征分解的老步骤。这里,先提一下, 是半正定矩阵: 。
由于 满足矩阵交换乘积,有 ,且 。
我们可以设 的特征值为 ,设 的特征值为 ,且不为0的特征值个数相等。因此,有
矩阵半正定,特征值非负,可以开根号。特征值从右上角开始写,直到写到最后一个非零特征值。其余元素均为0。
刚才提及的是矩阵的奇异值分解的方法,现在我们初步看一下这个方法在降维中的应用。
令 , 为矩阵对角线元素。
奇异值分解后的矩阵可以表示为:
令特征值从大到小排列,意味着前面的较大的特征值保留了矩阵较为重要的特征,后面的较小的特征值保留了矩阵比较细节的特征。以图像的压缩为例子:
压缩钱图像矩阵为 ,意味着参数有 个,只取前 个特征值,参数有 。误差为: 。
也可以用作在神经网络的加速运算,之后提及。
下面是图片压缩的例子(转自知乎@DeepWeaver)
如何理解矩阵特征ŀ
从线性空间的角度看,在一个定义了内积的线性空间里,对一个n阶对称方阵进行特征分解,就是产生了该空间的n个标准正交基,然后把矩阵投影到这n个基上。n个特征向量就是n个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。
特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。
应用到最优化中,意思就是对于r的二次型,自变量在这个方向上变化的时候,对函数值的影响最大,也就是该方向上的方向导数最大。
应用到数据挖掘中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大。
特征矩阵是什么呢?
特征矩阵如下:
所谓的特征矩阵指的是:当A是n阶方阵,对于数λ,若存在非零列向量α,使得Aα=λα,此时λ就是特征值,α对应于λ的特征向量。那么这个时候满足“λE-A”,就叫做特征矩阵。
矩阵特征值是高等数学的重要内容,在很多领域都有广泛应用,尤其在科学研究与工程设计的计算工程之中,灵活运用矩阵特征值能够使很多复杂问题简化。
矩阵的特点:
矩阵是高等代数学中的常见工具,也常见于统计分析等应用数学学科中。在物理学中,矩阵于电路学、力学、光学和量子物理中都有应用;计算机科学中,三维动画制作也需要用到矩阵。 矩阵的运算是数值分析领域的重要问题。
将矩阵分解为简单矩阵的组合可以在理论和实际应用上简化矩阵的运算。对一些应用广泛而形式特殊的矩阵,例如稀疏矩阵和准对角矩阵,有特定的快速运算算法。
如何求解一个矩阵的特征向量?
把特征值代入特征方程,运用初等行变换法,将矩阵化到最简,然后可得到基础解系。求矩阵的全部特征值和特征向量的方法如下:
第一步:计算的特征多项式;
第二步:求出特征方程的全部根,即为的全部特征值;
第三步:对于的每一个特征值,求出齐次线性方程组:的一个基础解系,则可求出属于特征值的全部特征向量。
扩展资料
求特征向量:
设A为n阶矩阵,根据关系式Ax=λx,可写出(λE-A)x=0,继而写出特征多项式|λE-A|=0,可求出矩阵A有n个特征值(包括重特征值)。将求出的特征值λi代入原特征多项式,求解方程(λiE-A)x=0,所求解向量x就是对应的特征值λi的特征向量。
判断矩阵可对角化的充要条件:
矩阵可对角化有两个充要条件:
1、矩阵有n个不同的特征向量;
2、特征向量重根的重数等于基础解系的个数。对于第二个充要条件,则需要出现二重以上的重特征值可验证(一重相当于没有重根)。
若矩阵A可对角化,则其对角矩阵Λ的主对角线元素全部为A的特征值,其余元素全部为0。(一个矩阵的对角阵不唯一,其特征值可以换序,但都存在由对应特征向量顺序组成的可逆矩阵P使P⁻¹AP=Λ)。
求矩阵特征值的方法如下:
任意一个矩阵A可以分解成如下两个矩阵表达的形式:
其中矩阵Q为正交矩阵,矩阵R为上三角矩阵,至于QR分解到底是怎么回事,矩阵Q和矩阵R是怎么得到的,你们还是看矩阵论吧,如果我把这些都介绍了,感觉这篇文章要写崩,或者你可以先认可我是正确的,然后往下看。
由式(22)可知,A1和A2相似,相似矩阵具有相同的特征值,说明A1和A2的特征值相同,我们就可以通过求取A2的特征值来间接求取A1的特征值。
求矩阵特征值如何因式分解
|A-λE|=
2-λ 2 -2
2 5-λ -4
-2 -4 5-λ
r3+r2 (消0的同时,还能提出公因子,这是最好的结果)
2-λ 2 -2
2 5-λ -4
0 1-λ 1-λ
c2-c3
2-λ 4 -2
2 9-λ -4
0 0 1-λ
= (1-λ)[(2-λ)(9-λ)-8] (按第3行展开,再用十字相乘法)
= (1-λ)(λ^2-11λ+10)
= (10-λ)(1-λ)^2.
A的特征值为:λ1=10,λ2=λ3=1.
java矩阵特征分解的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于矩阵特征分解算法、java矩阵特征分解的信息别忘了在本站进行查找喔。