线性代数笔记(14)——特征值和特征向量

线性代数笔记(14)——特征值和特征向量

Contents

特征值和特征向量

常微分方程组

$$
\left\{
\begin{array}{c}
\dfrac{\mathrm{d} u_1}{\mathrm{d}} = a_{11} u_1 + a_{12} u_2 + \cdots a_{1n} u_n \\
\dfrac{\mathrm{d} u_2}{\mathrm{d}} = a_{21} u_1 + a_{22} u_2 + \cdots a_{2n} u_n \\
\vdots \\
\dfrac{\mathrm{d} u_n}{\mathrm{d}} = a_{n1} u_1 + a_{n2} u_2 + \cdots a_{nn} u_n
\end{array}
\right.
$$

令 $\mathbf{u}(t) = \begin{pmatrix}u_1(t) \\ u_2(t) \\ \vdots \\ u_n(t) \end{pmatrix}$,$A = \begin{pmatrix}a_{11} & \cdots & a_{1n} \\ a_{21} & \cdots & a_{2n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{nn} \end{pmatrix}$。

则 $\dfrac{\mathrm{d} \mathbf{u}}{\mathrm{d} t} = A \mathbf{u}$。

受 $n=1$ 情况启发,设 $\mathbf{u}(t) = e^{\lambda t} \begin{pmatrix}c_1 \\ c_2 \\ \vdots \\ c_n \end{pmatrix}$,可得 $A \begin{pmatrix}c_1 \\ c_2 \\ \vdots \\ c_n \end{pmatrix} = \lambda \begin{pmatrix}c_1 \\ c_2 \\ \vdots \\ c_n \end{pmatrix}$。

则 $\mathbf{x} = \begin{pmatrix}c_1 \\ c_2 \\ \vdots \\ c_n \end{pmatrix} \in N(A – \lambda I)$。

显然 $\mathbf{x} = \mathbf{0}$ 满足,然而我们希望获得其非零解,则 $A – \lambda I$ 不可逆,即 $\det (A – \lambda I) = 0$。

特征值与特征向量

$A$ 是 $n$ 阶方阵,若数 $\lambda$ 和向量 $\mathbf{x} \not = \mathbf{0}$ 满足 $A \mathbf{x} = \lambda \mathbf{x}$,称 $\lambda$ 是 $A$ 的一个特征值,$\mathbf{x}$ 是 $A$ 的属于特征值 $\lambda$ 的特征向量

$\lambda$ 为 $A$ 特征值 $\Leftrightarrow \det(A – \lambda I) = 0$。

称 $\det(A – \lambda I)$ 为 $A$ 的特征多项式,$\det(A – \lambda I) = 0$ 为 $A$ 的特征方程

$N(A – \lambda I)$ 称为相应于特征值 $\lambda$ 的特征子空间,其中每个非零向量都是属于 $\lambda$ 的特征向量。

推论 1:$A$ 有 $0$ 特征值 $\Leftrightarrow A$ 不可逆。

推论 2:三角矩阵特征值为其对角线元素。

复特征值

$\det (A – \lambda I) = 0$ 可能不只有实数解,复数解可称为复特征值

特征值的性质

一般复数域上 $\det(A – \lambda I) = f(\lambda)$ 是一个关于 $\lambda$ 的 $n$ 次多项式,$f(\lambda) = 0$ 在复数域上有 $n$ 个根(可能有重根)。

矩阵的迹(对角线元素和)等于其特征值的和

矩阵的行列式等于其特征值之积。

(均可用特征多项式的系数看出)

若 $\lambda$ 是 $A$ 是一个特征值,则 $\lambda^2$ 是 $A$ 的一个特征值。($A \mathbf{x} = \lambda \mathbf{x} \Rightarrow A^2 \mathbf{x} = A(\lambda \mathbf{x}) = \lambda^2 \mathbf{x}$)

推论:$p(x)$ 是多项式,则 $p(\lambda)$ 是 $p(A)$ 的一个特征值。

相似对角化

分析

对 $n$ 阶阵 $A_{n \times n}$,设 $A$ 有 $n$ 个线性无关的特征向量 $\mathbf{x_1},\cdots,\mathbf{x_n}$,有 $A \mathbf{x_1} = \lambda_1 \mathbf{x_1},\cdots,A \mathbf{x_n} = \lambda_n \mathbf{x_n}$。

则:
$$
A
\begin{pmatrix}
\mathbf{x_1} & \mathbf{x_2} & \cdots & \mathbf{x_n}
\end{pmatrix}
=
\begin{pmatrix}
\mathbf{x_1} & \mathbf{x_2} & \cdots & \mathbf{x_n}
\end{pmatrix}
\begin{pmatrix}
\lambda_1 & 0 & \cdots & 0 \\
0 & \lambda_2 & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & \lambda_n
\end{pmatrix}
$$
令 $S = \begin{pmatrix}\mathbf{x_1} & \mathbf{x_2} & \cdots & \mathbf{x_n}\end{pmatrix}$,知 $S$ 可逆,则:
$$
S^{-1} A S =
\begin{pmatrix}
\lambda_1 & 0 & \cdots & 0 \\
0 & \lambda_2 & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & \lambda_n
\end{pmatrix} = \Lambda
$$

矩阵可对角化的条件

定义:对 $n$ 阶阵 $A_{n \times n}$,若 $\exists$ 可逆阵 $S$ 使得 $S^{-1} A S = \begin{pmatrix}\lambda_1 & 0 & \cdots & 0 \\0 & \lambda_2 & \cdots & 0 \\\vdots & \vdots & \ddots & \vdots \\0 & 0 & \cdots & \lambda_n\end{pmatrix}$,称 $A$ 可以相似对角化

定理 1:$n$ 阶阵 $A_{n \times n}$ 有 $n$ 个线性无关特征向量 $\Leftrightarrow A$ 可以相似对角化。

定理 2:设 $\lambda_1,\cdots,\lambda_n$ 是 $A$ 的互异特征值,$\mathbf{x_1},\cdots,\mathbf{x
_n}$ 是相应特征向量,则 $\mathbf{x_1},\cdots,\mathbf{x
_n}$ 线性无关。

(假设存在一组系数,然后不断乘 $A$,转为各自乘上对应 $\lambda$,乘 $n – 1$ 次,得到关于 $\lambda_i$ 的范德蒙德行列式对应矩阵乘上 $c_i \mathbf{x_i}$ 等于零矩阵,可知系数均为 $0$)

推论:对 $n$ 阶阵 $A_{n \times n}$,若 $A$ 有 $n$ 个互异特征值,则 $A$ 可相似对角化。(非充要条件

特征值的代数重数和几何重数

定义:$n$ 阶阵 $A$,设 $|\lambda I_n – A| = (\lambda – \lambda_1)^{n_1} (\lambda – \lambda_2)^{n_2} \cdots (\lambda – \lambda_j)^{n_j}$,其中 $\sum\limits_{i = 1}^{j} n_i = n$ 且 $\lambda_i \not = \lambda_j(i \not = j)$,此时称 $n_i$ 为 $\lambda_i$ 的代数重数,记为 $AM(\lambda_i) = n_i$;称 $\dim N(A – \lambda_i I_n)$ 为 $\lambda_i$ 的几何重数,记为 $GM(\lambda_i) = \dim N(A – \lambda_i I_n)$。(在复数域上)

定理:$GM(\lambda_i) \le AM(\lambda_i)$。

证明:设 $GM(\lambda_i) = m_i,AM(\lambda_i) = n_i$。

设 $A$ 有属于 $\lambda_i$ 的线性无关的特征向量 $\mathbf{x}_1,\mathbf{x}_2,\cdots,\mathbf{x}_{m_i} \in \mathbb{C}^n$。

将这些向量扩充为 $\mathbb{C}^n$ 的一组基 $\mathbf{x}_1,\mathbf{x}_2,\cdots,\mathbf{x}_{m_i},\mathbf{y}_1,\cdots,\mathbf{y}_{n – m_i}$。

令 $P = \begin{pmatrix}\mathbf{x}_1 & \mathbf{x}_2 & \cdots & \mathbf{x}_{m_i} &\mathbf{y}_1 & \cdots & \mathbf{y}_{n – m_i}\end{pmatrix}$ 知 $P$ 可逆。
$$
AP =
A
\begin{pmatrix}\mathbf{x}_1 & \mathbf{x}_2 & \cdots & \mathbf{x}_{m_i} &\mathbf{y}_1 & \cdots & \mathbf{y}_{n – m_i}
\end{pmatrix} \\
=
\begin{pmatrix}\mathbf{x}_1 & \mathbf{x}_2 & \cdots & \mathbf{x}_{m_i} &\mathbf{y}_1 & \cdots & \mathbf{y}_{n – m_i}
\end{pmatrix}
\begin{pmatrix}
\lambda_i I_{m_i} & * \\
0 & A_1
\end{pmatrix} \\
A = P
\begin{pmatrix}
\lambda_i I_{m_i} & * \\
0 & A_1
\end{pmatrix}
P^{-1} \\
|\lambda I_n – A| = |P| |\lambda I_n – \begin{pmatrix}
\lambda_i I_{m_i} & * \\
0 & A_1
\end{pmatrix}| |P^{-1}|
= \begin{vmatrix}
(\lambda-\lambda_i) I_{m_i} & * \\
0 & \lambda I_{n – m_i} – A_1
\end{vmatrix}
= (\lambda – \lambda_i)^{m_i}|\lambda I_{n – m_i} – A_1|
$$
故 $m_i \le n_i$。

 

点赞 0

No Comments

Add your comment