怎样理解特征向量和特征值(翻译)

原文地址:stackexchange

原文答案作者主页:Arturo Magidin

版权声明

本译文首发于我的个人博客chengmingbo.github.io, 版权属于原作者。 #### 简短的答案 特征向量可以让线性变换的理解变得简单。它们是沿着坐标轴(方向)的线性变换包括简单的伸/缩以及翻转;特征值提供的是这些线性变换影响因子。 如果你理解越多沿着坐标轴(方向)的线性变换行为,理解线性变换就变得越简单;所以你要做的是有足够多的线性无关的特征向量与单因素线性变换产生联系。

长一点儿的答案

这个世界上有非常多的问题可以通过线性变换来建模,而特征向量提供了非常简单的解决方案。例如,考虑线性微分方程: \[\frac{\mathrm d x}{\mathrm d t} = ax + by\] \[\frac{\mathrm d y}{\mathrm d t} = cx + dy\]

可以找到很多描述此微分方程的系统,比如,两个物种数量的增长相互影响。具体来说,可能物种\(x\)是物种\(y\)的捕食者;周围越多的物种\(x\),意味着越少的物种\(y\)可以得到繁衍壮大;问题是周围的物种\(y\)越少,那么对于物种\(x\)来说食物就会越少,所以物种\(x\)的繁衍就会越少;但是接下来因为物种\(x\)对物种\(y\)的生存压力降低,很快会导致\(y\)物种数量的增长;但是这就意味这物种\(x\)的食物变多了,所以物种xx的数量也跟着增长;如此这般,循环往复。特定的物理现象也能形成这样的系统,比如粒子在运动的流体中,粒子的速度矢量取决于其所处的流体中位置。

直接解决这种系统是非常复杂的。但是,假设如果你可以不用去关注变量\(x\)和变量\(y\)而是转而关注\(z\)\(w\)(这里\(z\)\(w\)\(x\)\(y\)线性相关,也就是说,\(z=\alpha x + \beta y\), \(\alpha\)\(\beta\)是常量,同时\(w=\gamma x + \delta y\)\(\gamma\)\(\delta\)也是常量)。这样,我们的系统就变换成了如下的形式: \[\frac{\mathrm d z}{\mathrm d t} = \kappa w\] \[\frac{\mathrm d w}{\mathrm d t} = \lambda z\]

也就是说,你对系统做了解耦,这样你就可以单独的处理各个独立函数了。接下来就这个问题就变得非常简单:\(z=Ae^{\kappa t}\),以及\(w=Be^{\lambda t}\)。下一步就是用\(z\)\(w\)的公式,算出\(x\)\(y\)

这能做到么?事实上,这等于我们精确的找到了矩阵\(\begin{pmatrix}a & b\\ c&d\end{pmatrix}\)线性独立的两个特征向量!\(z\)\(w\)是其特征向量,而\(\kappa\)\(\lambda\)为相对应的特征值。通过使用一个表达式把\(x\)\(y\)混合 起来,然后解耦成两个互相独立的函数,问题现在变得非常简单了。

这就是我们希望使用特征向量及特征值的本质:通过线性变换把问题解耦 成一系列沿着各个隔离方向的操作,使得各个方向问题都可独立解决。

大量的问题归根结底是解决线性独立操作,理解这些可以实实在在的帮助你理解矩阵/线性变换到底在做什么。