#Math285

Autonomous systems and Orbits

定义与基本性质

唯一性与轨道划分

Phase Line Analysis

1. 一维相线分析 (Phase Line Analysis, n=1)

当系统是一维时,即 $y’=f(y)$ ,相空间就是一条直线,称为 相线 (phase line) (通常就是 y 轴)。

2. 二维相平面分析 (Phase Plane Analysis, n=2)

当系统是二维时,即 y′=f(y) 其中 y=(y1​,y2​),相空间是 相平面 (phase plane)

Exponential Expansion

设 $A$ 是一个 $2 \times 2$ 的矩阵。 $$ A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} $$ 计算 $e^{At}$ 的核心在于求解 $A$ 的特征值。

第一步:求解特征值 (Eigenvalues)

特征值 $\lambda$ 由特征方程 $\det(A - \lambda I) = 0$ 给出: $$ \det \begin{pmatrix} a - \lambda & b \\ c & d - \lambda \end{pmatrix} = (a - \lambda)(d - \lambda) - bc = 0 $$ 展开得到一个关于 $\lambda$ 的二次方程: $$ \lambda^2 - (a+d)\lambda + (ad-bc) = 0 $$ 注意到 $a+d = tr(A)$ (矩阵 $A$ 的迹 Trace) 且 $ad-bc = det(A)$ (矩阵 $A$ 的行列式 Determinant)。所以特征方程是: $$ \lambda^2 - tr(A) \lambda + det(A) = 0 $$ 解这个二次方程,得到两个特征值,记为 $\lambda_1$ 和 $\lambda_2$。

第二步:根据特征值的不同情况计算 $e^{At}$

这里有三种主要情况:

情况 1:两个不同的实数特征值 ($\lambda_1 \neq \lambda_2$, $\lambda_1, \lambda_2 \in \mathbb{R}$)

当有两个不同的特征值时,矩阵 $A$ 一定是可对角化的。我们可以利用一个基于 Cayley-Hamilton 定理 (Cayley-Hamilton Theorem) 的思想:任何 $n \times n$ 矩阵 $A$ 都满足其自身的特征方程。对于 $2 \times 2$ 矩阵,这意味着 $(A - \lambda_1 I)(A - \lambda_2 I) = 0$。更进一步地,对于任何解析函数 $f(x)$ (比如 $f(x)=e^{xt}$),可以将 $f(A)$ 表示为 $A$ 的次数低于 $n$ (这里是低于 2) 的多项式。

即,存在标量系数 $c_0(t)$ 和 $c_1(t)$,使得: $$ e^{At} = c_0(t) I + c_1(t) A $$ 为了确定这两个系数,我们利用这个关系式对于特征值也必须成立 (可以想象将这个等式作用于特征向量上): $$ e^{\lambda t} = c_0(t) + c_1(t) \lambda $$ 将两个不同的特征值 $\lambda_1$ 和 $\lambda_2$ 代入,得到一个线性方程组:

  1. $e^{\lambda_1 t} = c_0(t) + c_1(t) \lambda_1$
  2. $e^{\lambda_2 t} = c_0(t) + c_1(t) \lambda_2$

求解这个关于 $c_0(t)$ 和 $c_1(t)$ 的方程组: 从 (1) - (2): $e^{\lambda_1 t} - e^{\lambda_2 t} = c_1(t) (\lambda_1 - \lambda_2)$ 所以 (因为 $\lambda_1 \neq \lambda_2$): $$ c_1(t) = \frac{e^{\lambda_1 t} - e^{\lambda_2 t}}{\lambda_1 - \lambda_2} $$ 将 $c_1(t)$ 代回 (1): $c_0(t) = e^{\lambda_1 t} - \lambda_1 c_1(t) = e^{\lambda_1 t} - \lambda_1 \frac{e^{\lambda_1 t} - e^{\lambda_2 t}}{\lambda_1 - \lambda_2}$ 化简可得: $$ c_0(t) = \frac{\lambda_1 e^{\lambda_2 t} - \lambda_2 e^{\lambda_1 t}}{\lambda_1 - \lambda_2} $$ 最后,将 $c_0(t)$ 和 $c_1(t)$ 代回 $e^{At} = c_0(t) I + c_1(t) A$: $$ e^{At} = \frac{\lambda_1 e^{\lambda_2 t} - \lambda_2 e^{\lambda_1 t}}{\lambda_1 - \lambda_2} I + \frac{e^{\lambda_1 t} - e^{\lambda_2 t}}{\lambda_1 - \lambda_2} A $$ 这个公式直接用特征值 $\lambda_1, \lambda_2$ 和矩阵 $A$ 本身来计算 $e^{At}$,避免了显式计算特征向量和矩阵求逆。

(同样适用于两个不同的复共轭特征值 $\lambda_{1,2} = \alpha \pm i\beta$ 的情况,只是计算会涉及复数指数 $e^{(\alpha \pm i\beta)t} = e^{\alpha t}(\cos(\beta t) \pm i \sin(\beta t))$,但最终结果 $e^{At}$ 仍是实数矩阵)

情况 2:一个重根实数特征值 ($\lambda_1 = \lambda_2 = \lambda$),且 $A$ 是可对角化的

这种情况非常特殊。如果一个 $2 \times 2$ 矩阵有重根特征值 $\lambda$ 并且是可对角化的,那么它必须已经是标量矩阵 (Scalar Matrix) 的形式: $$ A = \begin{pmatrix} \lambda & 0 \\ 0 & \lambda \end{pmatrix} = \lambda I $$ 在这种极其简单的情况下: $$ e^{At} = e^{(\lambda I)t} = e^{\lambda t I} = \sum_{k=0}^{\infty} \frac{(\lambda t I)^k}{k!} = \sum_{k=0}^{\infty} \frac{(\lambda t)^k I^k}{k!} = \left( \sum_{k=0}^{\infty} \frac{(\lambda t)^k}{k!} \right) I = e^{\lambda t} I $$ 所以: $$ e^{At} = \begin{pmatrix} e^{\lambda t} & 0 \\ 0 & e^{\lambda t} \end{pmatrix} $$

情况 3:一个重根实数特征值 ($\lambda_1 = \lambda_2 = \lambda$),但 $A$ 不是可对角化的

这是当 $A \neq \lambda I$ 但仍然有 $\lambda_1 = \lambda_2 = \lambda$ 时发生的情况。这意味着 $A$ 的若尔当标准型 (Jordan Normal Form) 是 $J = \begin{pmatrix} \lambda & 1 \\ 0 & \lambda \end{pmatrix}$。 我们仍然可以使用 $e^{At} = c_0(t) I + c_1(t) A$ 的形式,但是之前的求解方法因为 $\lambda_1 - \lambda_2 = 0$ 而失效。我们需要一个新的条件。

当存在重根时,不仅 $e^{\lambda t} = c_0(t) + c_1(t) \lambda$ 成立,它的导数(对 $\lambda$ 求导)也应该成立(这与最小多项式有关): $$ \frac{d}{d\lambda} (e^{\lambda t}) = \frac{d}{d\lambda} (c_0(t) + c_1(t) \lambda) $$ 计算得到: $$ t e^{\lambda t} = c_1(t) $$ 现在我们有了两个方程:

  1. $e^{\lambda t} = c_0(t) + c_1(t) \lambda$
  2. $t e^{\lambda t} = c_1(t)$

求解这个简单的系统: $c_1(t) = t e^{\lambda t}$ $c_0(t) = e^{\lambda t} - \lambda c_1(t) = e^{\lambda t} - \lambda (t e^{\lambda t}) = (1 - \lambda t) e^{\lambda t}$

代回 $e^{At} = c_0(t) I + c_1(t) A$: $$ e^{At} = (1 - \lambda t) e^{\lambda t} I + t e^{\lambda t} A $$ 这个公式也可以从 $A = P J P^{-1}$ 推导出来。我们知道 $e^{Jt} = e^{\lambda t} \begin{pmatrix} 1 & t \\ 0 & 1 \end{pmatrix}$。 并且,根据 Cayley-Hamilton 定理,对于这种情况, $(A - \lambda I)^2 = 0$。 我们可以写 $A = \lambda I + (A - \lambda I)$。由于 $\lambda I$ 和 $(A - \lambda I)$ 可交换, $e^{At} = e^{(\lambda I + (A - \lambda I))t} = e^{\lambda I t} e^{(A - \lambda I)t} = e^{\lambda t} I \cdot e^{(A - \lambda I)t}$ 计算 $e^{(A - \lambda I)t}$ 的级数: $e^{(A - \lambda I)t} = I + (A - \lambda I)t + \frac{((A - \lambda I)t)^2}{2!} + \dots$ 由于 $(A - \lambda I)^2 = 0$,所有更高次的项也都是零。 $e^{(A - \lambda I)t} = I + (A - \lambda I)t$ 所以, $e^{At} = e^{\lambda t} (I + (A - \lambda I)t) = e^{\lambda t} I + t e^{\lambda t} (A - \lambda I)$ $e^{At} = e^{\lambda t} I + t e^{\lambda t} A - \lambda t e^{\lambda t} I = (1 - \lambda t)e^{\lambda t} I + t e^{\lambda t} A$ 这与我们之前用系数法得到的结果一致。

总结计算步骤:

  1. 计算特征值: 求解 $\lambda^2 - tr(A) \lambda + det(A) = 0$ 得到 $\lambda_1, \lambda_2$。
  2. 判断情况:
  3. 代入计算: 将 $\lambda_1, \lambda_2$ (或 $\lambda$) 以及矩阵 $A$ 和单位矩阵 $I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$ 代入相应的公式,计算最终的 $e^{At}$ 矩阵。

这种方法特别适用于二维情况,因为它避免了复杂的矩阵求逆或寻找广义特征向量的过程,而是直接利用特征值 $\lambda$ 和原始矩阵 $A$ 来构造结果。