平面一阶齐次线性微分方程组

平面一阶齐次线性微分方程组

1. 前言

所用教材:The Ordinary Differential Equations Project - Thomas W. Judson
对应教材第三章的第3.1节到第3.6节的内容,只涉及平面(二维)情况下的线性组。这对于直接学习 \(n\) 维线性组是一个很好的过渡。

一阶线性微分方程是形如

\[ \frac{\mathrm{d} y}{\mathrm{d} x} + p(x)y = f(x) \]

的方程。且当 \(f(x)=0\) 时,方程被称为一阶齐次线性微分方程:

\[ \frac{\mathrm{d} y}{\mathrm{d} x} + p(x)y = 0 \]

本文讨论的主题是在一阶齐次线性微分方程基础上,讨论由两个一阶齐次线性微分方程构成的方程组,其形如:

\[ \left\{ \begin{aligned} \frac{\mathrm{d}x}{\mathrm{d}t} = ax + by \\ \frac{\mathrm{d}y}{\mathrm{d}t} = cx + dy \end{aligned} \right. \]

为了之后的分析,我们令

\[ A =\begin{pmatrix}a & b \\c & d\end{pmatrix},\ \mathbf{x} =\begin{pmatrix}x(t) \\ y(t)\end{pmatrix} \]

那么,我们有

\[ \begin{pmatrix}x'(t) \\y'(t)\end{pmatrix}=\begin{pmatrix}a x(t) + b y(t) \\ c x(t) + d y(t)\end{pmatrix}=\begin{pmatrix}a & b \\ c & d\end{pmatrix}\begin{pmatrix}x(t) \\ y(t)\end{pmatrix}. \]

也可以写作

\[ \mathbf{x'} = A \mathbf{x}. \]

我们开始研究如何得到 \(x(t)\)\(y(t)\) 的通解。

2. 解的形式:\(e^{\lambda t}\)

Part 1.

我们知道,一阶齐次线性微分方程:

\[ \frac{\mathrm{d}x}{\mathrm{d}t} = \lambda x \]

的通解为:

\[ x = Ce^{\lambda t} \]

那么,我们可以先猜测一下平面一阶齐次线性微分方程组的解可能为:

\[ \left\{ \begin{aligned} x &= e^{\lambda t} \\ y &= e^{\mu t} \end{aligned} \right. \]

代入到 \(\mathbf{x'} = A \mathbf{x}\)

\[ \begin{aligned} \lambda e^{\lambda t} &= a\ e^{\lambda t} + b\ e^{\mu t} \\ \mu e^{\mu t} &= c\ e^{\lambda t} + d\ e^{\mu t} \end{aligned} \]

假设 \(\lambda,\mu\) 的值已知,那么我们可以解得 \(a=\lambda,b=0,c=0,d=\mu\) ,所以 \(A\) 为:

\[ A = \begin{pmatrix} \lambda & 0 \\ 0 & \mu \end{pmatrix} \]

换句话说,如果 \(A\) 的形式符合上式,那么 \(x = e^{\lambda t},\ y = e^{\mu t}\) 是方程组 \(\mathbf{x'} = A \mathbf{x} = \begin{pmatrix} \lambda & 0 \\ 0 & \mu \end{pmatrix}\mathbf{x}\) 的解。我们得到了某个单独情况下的解。如果 \(A\) 是一般形式的话,方程组的解是什么呢?

Part 2.

我们重新猜测方程组的解可能是:

\[ \left\{ \begin{aligned} x &= \alpha e^{\lambda t} + \beta e^{\mu t}\\ y &= \gamma e^{\lambda t} + \delta e^{\mu t} \end{aligned} \right. \]

将解用矩阵表示:

\[ \mathbf{x}=\begin{pmatrix}x \\ y \end{pmatrix} = \begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\begin{pmatrix}e^{\lambda t} \\ e^{\mu t} \end{pmatrix} \]

将之代入至公式 \(\mathbf{x'} = A \mathbf{x}\)

\[ \begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\begin{pmatrix}\lambda&0\\ 0&\mu\end{pmatrix}\begin{pmatrix}e^{\lambda t} \\ e^{\mu t} \end{pmatrix} = \begin{pmatrix}a & b \\ c & d\end{pmatrix}\begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\begin{pmatrix}e^{\lambda t} \\ e^{\mu t}\end{pmatrix} \]

于是乎

\[ \begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\begin{pmatrix}\lambda&0\\ 0&\mu\end{pmatrix} = \begin{pmatrix}a & b \\ c & d\end{pmatrix}\begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix} \]

让我们分别计算一下上式的左、右侧:

\[ \begin{aligned} \begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix}\begin{pmatrix}\lambda&0\\ 0&\mu\end{pmatrix} &= \begin{pmatrix}\alpha\lambda & \beta\mu \\ \gamma\lambda & \delta\mu \end{pmatrix} = \begin{pmatrix}\lambda\begin{pmatrix}\alpha\\\gamma\end{pmatrix} & \mu\begin{pmatrix}\beta\\\delta\end{pmatrix}\end{pmatrix} = \begin{pmatrix}\lambda\mathbf{v} & \mu\mathbf{w}\end{pmatrix} ,\\[12pt] \begin{pmatrix}a & b \\ c & d\end{pmatrix}\begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix} &= A\begin{pmatrix}\alpha & \beta \\ \gamma & \delta \end{pmatrix} = \begin{pmatrix}A\begin{pmatrix}\alpha\\\gamma\end{pmatrix} & A\begin{pmatrix}\beta\\\delta\end{pmatrix}\end{pmatrix} = \begin{pmatrix}A\mathbf{v} & A\mathbf{w}\end{pmatrix}. \text{ where }\mathbf{v}=\begin{pmatrix}\alpha\\\gamma\end{pmatrix},\mathbf{w}=\begin{pmatrix}\beta\\\delta\end{pmatrix} \end{aligned} \]

通过比较观察,我们可以知道

\[ A\mathbf{v}=\lambda\mathbf{v},\\ A\mathbf{w}=\mu\mathbf{w}. \]

下一步,便是想办法找到 \(\lambda,\mu,\mathbf{v},\mathbf{w}\) 的值。我们将在下一节介绍与此相关的概念:特征值和特征向量。

3. 特征值和特征向量

特征值和特征向量是矩阵的一种属性。对于一个 \(2\times 2\) 矩阵 \(A\) 而言,当它作用在一个非零向量 \(\mathbf{v}\) 上时,如果这个向量只是被拉伸或者收缩(数量上乘了 \(\lambda\)),方向保持不变或180度掉头,那么我们说 \(\lambda\) 是矩阵 \(A\) 的特征值,\(\mathbf{v}\) 是相应的特征向量。

表达式写作:

\[ A\mathbf{v}=\lambda\mathbf{v} \]

这也是我们上一节最后所得到的表达式。只要我们有办法找到 \(\lambda\)\(\mathbf{v}\),那么我们也就找到了 \(\mathbf{x'} = A \mathbf{x}\) 的解。

化简:

\[ \begin{aligned} A\mathbf{v}-\lambda\mathbf{v}&=0\\ A\mathbf{v}-\lambda I\mathbf{v}&=0\\ (A-\lambda I)\mathbf{v}&=0\\ \begin{pmatrix}a-\lambda&b\\c&d-\lambda\end{pmatrix} \begin{pmatrix}x_0\\y_0\end{pmatrix}&=0 \end{aligned} \]

注意到,无论 \(\det\begin{pmatrix}a-\lambda&b\\c&d-\lambda\end{pmatrix}\) 等不等于 \(0\)\(\begin{pmatrix}0\\0\end{pmatrix}\) 始终是 \(\begin{pmatrix}x_0\\y_0\end{pmatrix}\)的解。进一步考虑,如果 \(\det\begin{pmatrix}a-\lambda&b\\c&d-\lambda\end{pmatrix}\neq 0\),那么 \(\begin{pmatrix}0\\0\end{pmatrix}\) 将是唯一解。但我们要找的向量 \(\mathbf{v}\) 必须是非零向量,才符合我们对特征向量的定义,所以 \(\det\begin{pmatrix}a-\lambda&b\\c&d-\lambda\end{pmatrix}=0\)

于是我们得到

\[ \det\begin{pmatrix}a-\lambda&b\\c&d-\lambda\end{pmatrix} = \lambda^2-(a+d)\lambda+ad-bc= 0 \]

我们称 \(p(\lambda) = \lambda^2-(a+d)\lambda+ad-bc\) 为矩阵 \(A = \begin{pmatrix}a & b \\c & d\end{pmatrix}\) 的特征多项式。\(p(\lambda)=0\) 为其特征方程。

特征方程 \(p(\lambda)=0\) 的两个根即为特征值:

\[ \lambda = \frac{(a+d)\pm\sqrt{(a+d)^2-4(ad-bc)}}{2} \]

对应的特征向量为:(对于某个已知的特征值而言,相应的特征向量有无穷个,这里只写了两个)

\[ \mathbf{v} = \begin{pmatrix}-b\\a-\lambda\end{pmatrix} = \begin{pmatrix}d-\lambda\\-c\end{pmatrix} \]

特征值和特征向量的计算公式不用记,这里写出来是因为草稿纸上都写了,索性誊写上来~

下一步,我们可以尝试找出 \(\mathbf{x'} = A \mathbf{x}\) 的通解了。

4. 通解:\(\mathbf{x} = c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w}\)

Case 1: \(p(\lambda)=0\) 有两个不同的实数根

目前,我们知道了

  • \(\mathbf{x'} = A \mathbf{x}\) 的解的形式为

\[ \left\{ \begin{aligned} x &= \alpha e^{\lambda t} + \beta e^{\mu t}\\ y &= \gamma e^{\lambda t} + \delta e^{\mu t} \end{aligned} \right. \]

写成矩阵形式为:

\[ \mathbf{x} = e^{\lambda t} \mathbf{v} + e^{\mu t} \mathbf{w} \text{ ,where }\mathbf{v}=\begin{pmatrix}\alpha\\\gamma\end{pmatrix},\mathbf{w}=\begin{pmatrix}\beta\\\delta\end{pmatrix}. \]

  • 其中 \(\lambda,\mu\) 是矩阵 \(A\) 的特征值,\(\mathbf{v}和\mathbf{w}\) 是相应的特征向量。

因为特征向量有无穷个,所以 \(\mathbf{x'} = A \mathbf{x}\) 的通解为:

\[ \mathbf{x} = c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w}. \]

证明见教材:Theorem 3.2.6

我们目前探讨的情况只有当 \(p(\lambda)=0\) 有两个不同的实数根的情况。

小结

对于平面一阶齐次线性微分方程组:

\[ \mathbf{x}'=A\mathbf{x}. \]

如果

\[ A=\begin{pmatrix}a&b\\c&d\end{pmatrix} \text{ 满足判别式 } \Delta=(a+d)^2-4(ad-bc)>0. \]

那么特征值为:

\[ \begin{aligned} \lambda &= \frac{(a+d)+\sqrt{(a+d)^2-4(ad-bc)}}{2}\\[12pt] \mu &= \frac{(a+d)-\sqrt{(a+d)^2-4(ad-bc)}}{2} \end{aligned} \]

对应的特征向量可以取为:(没有代入 \(\lambda,\mu\) 的值,不然式子太长了)

\[ \begin{aligned} \mathbf{v} &= \begin{pmatrix}-b\\a-\lambda\end{pmatrix} \text{ 或 } \begin{pmatrix}d-\lambda\\-c\end{pmatrix}\\[12pt] \mathbf{w} &= \begin{pmatrix}-b\\a-\mu\end{pmatrix} \text{ 或 } \begin{pmatrix}d-\mu\\-c\end{pmatrix} \end{aligned} \]

最终,该线性组的通解为:

\[ \boxed{ \mathbf{x} = c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w} } \]

我们接下来探讨如果 \(p(\lambda)=0\) 只有复数根的情况。

Case 2: \(p(\lambda)=0\) 有共轭复数根

假设 \(p(\lambda)=0\) 的两个共轭复数根分别为 \(\lambda=\alpha+i\beta,\mu=\alpha-i\beta\)

根据我们在实数根情况下取得的成功,我们猜测复数根情况下,通解也是:

\[ \mathbf{x} = c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w} \]

这显然是可行的,但问题是对于一个由实数构成的线性组,我们希望得到的是实数解。我们需要找到一种方法能够将虚数 \(i\) 排除在通解中。

首先,\(\mathbf{x}\) 是一个复数解,我们可以将它表示为实部加虚部的形式:

\[ \mathbf{x} = \mathrm{Re}{(\mathbf{x})} + i\ \mathrm{Im}{(\mathbf{x})} \]

于是,我们可以对实部和虚部分别求导:

\[ \mathbf{x}' = \mathrm{Re}{(\mathbf{x})}' + i\ \mathrm{Im}{(\mathbf{x})}' \]

实际上,我们可以将通解中的虚数 \(i\) 省去以得到实数通解,我将之表示为:

\[ \begin{aligned} \mathbf{x}_\mathbb{R} &= \mathrm{Re}{(\mathbf{x})} + \mathrm{Im}{(\mathbf{x})}\\ \mathbf{x}_\mathbb{R}' &= \mathrm{Re}{(\mathbf{x})}' + \mathrm{Im}{(\mathbf{x})}' \end{aligned} \]

现在,让我们尝试找到 \(\mathrm{Re}{(\mathbf{x})},\mathrm{Im}{(\mathbf{x})}\) 的表达式。

让我们先列出已知的条件们:

\[ \begin{aligned} &\mathbf{x}'=A\mathbf{x}\\[12pt] &\mathbf{x}=c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w}\\[12pt] &A=\begin{pmatrix}a & b \\c & d\end{pmatrix} \text{ 满足判别式 } \Delta=(a+d)^2-4(ad-bc)<0\\[12pt] &\lambda = \alpha + i \beta,\quad \mu = \alpha - i \beta,\quad \text{并且 } \overline{\lambda} = \mu\\[12pt] &\mathbf{v} = \begin{pmatrix}-b\\a-\lambda\end{pmatrix}=\mathbf{p}+i\mathbf{q},\quad \mathbf{w}=\begin{pmatrix}-b\\a-\mu\end{pmatrix}=\mathbf{p}-i\mathbf{q},\quad\text{并且 } \overline{\mathbf{v}}=\mathbf{w} \text{ 其中 } \mathbf{p}=\begin{pmatrix}-b\\a-\alpha\end{pmatrix},\mathbf{q}=\begin{pmatrix}0\\-\beta\end{pmatrix}\\[12pt] \end{aligned} \]

我们先聚焦于第一组特征值和特征向量 \(\lambda\)\(\mathbf{v}\) 所得到的特解:

\[ \begin{aligned} e^{\lambda t}\mathbf{v} &=e^{(\alpha+i\beta) t}(\mathbf{p}+i\mathbf{q})\\[12pt] &=e^{\alpha t}(\cos{\beta t} + i \sin{\beta t})(\mathbf{p}+i\mathbf{q})\\[12pt] &=e^{\alpha t}(\mathbf{p}\cos{\beta t}+i\mathbf{q}\cos{\beta t}+i\mathbf{p}\sin{\beta t}+i^2\mathbf{q}\sin{\beta t})\\[12pt] &=e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t}) + ie^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t}) \end{aligned} \]

接着,我们考虑第二组特征值和特征向量 \(\mu\)\(\mathbf{w}\) 所得到的特解:

\[ \begin{aligned} e^{\mu t}\mathbf{w} &=e^{(\alpha-i\beta) t}(\mathbf{p}-i\mathbf{q})\\[12pt] &=e^{\alpha t}(\cos{\beta t} - i \sin{\beta t})(\mathbf{p}-i\mathbf{q})\\[12pt] &=e^{\alpha t}(\mathbf{p}\cos{\beta t}-i\mathbf{q}\cos{\beta t}-i\mathbf{p}\sin{\beta t}+i^2\mathbf{q}\sin{\beta t})\\[12pt] &=e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t}) - ie^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t}) \end{aligned} \]

我们回到通解形式:

\[ \begin{aligned} \mathbf{x} &=c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w}\\ &=(c_1+c_2)e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t})+i(c_1-c_2)e^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t})\\ &=k_1 e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t})+i k_2 e^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t})\text{ 取 } c_1=\frac{k_1+k_2}{2},\ c_2=\frac{k_1-k_2}{2} \end{aligned} \]

于是,我们得到了通解的实部和虚部:

\[ \begin{aligned} \mathrm{Re}(\mathbf{x})=k_1 e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t})\\ \mathrm{Im}(\mathbf{x})=k_2 e^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t}) \end{aligned} \]

如果我们之前所述,我们可以将 \(i\) 虚数本身给舍弃,因为对 \(\mathbf{x}\) 求导时,实部和虚部是分开独立求导的(至少在本文的范围内),所以我们可以得到实数通解:

\[ \begin{aligned} \mathbf{x}_\mathbb{R} &=\mathrm{Re}(\mathbf{x}) + \mathrm{Im}(\mathbf{x})\\ &= k_1 e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t}) + k_2 e^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t}) \end{aligned} \]

验证

我们来验证一下 \(\mathbf{x}_\mathbb{R}'=A\mathbf{x}_\mathbb{R}\) 是否为真:

\[ \begin{aligned} \mathbf{x}_\mathbb{R}' &=\mathrm{Re}(\mathbf{x})' + \mathrm{Im}(\mathbf{x})'\\[12pt] &=k_1\alpha e^{\alpha t}(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t})+k_1 e^{\alpha t}(-\beta\mathbf{p}\sin{\beta t}-\beta\mathbf{q}\cos{\beta t})+k_2\alpha e^{\alpha t}(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t})+k_2 e^{\alpha t}(\beta\mathbf{p}\cos{\beta t}-\beta\mathbf{q}\sin{\beta t})\\[12pt] &=e^{\alpha t}\left\{\cos{\beta t}\left[k_1\alpha\mathbf{p}-k_1\beta\mathbf{q}+k_2\alpha\mathbf{q}+k_2\beta\mathbf{p}\right]+\sin{\beta t}\left[-k_1\alpha\mathbf{q}-k_1\beta\mathbf{p}+k_2\alpha\mathbf{p}-k_2\beta\mathbf{q}\right]\right\}\\[12pt] &=e^{\alpha t}\left\{\cos{\beta t}\left[k_1\left(\alpha\mathbf{p}-\beta\mathbf{q}\right)+k_2\left(\beta\mathbf{p}+\alpha\mathbf{q}\right)\right]+\sin{\beta t}\left[-k_1(\beta\mathbf{p}+\alpha\mathbf{q})+k_2\left(\alpha\mathbf{p}-\beta\mathbf{q}\right)\right]\right\}\\[24pt] A\mathbf{x}_\mathbb{R} &= k_1 e^{\alpha t}A(\mathbf{p}\cos{\beta t}-\mathbf{q}\sin{\beta t}) + k_2 e^{\alpha t}A(\mathbf{p}\sin{\beta t}+\mathbf{q}\cos{\beta t})\\[12pt] &=e^{\alpha t}\left\{\cos{\beta t}\left[k_1A\mathbf{p}+k_2A\mathbf{q}\right]+\sin{\beta t}\left[-k_1A\mathbf{q}+k_2 A\mathbf{p}\right] \right\} \end{aligned} \]

为了满足 \(\mathbf{x}_\mathbb{R}'=A\mathbf{x}_\mathbb{R}\),我们必须验证下式为真:

\[ A\mathbf{p} = \alpha \mathbf{p} - \beta \mathbf{q} , \quad A\mathbf{q} = \beta \mathbf{p} + \alpha \mathbf{q}. \]

回顾之前我们对 \(\mathbf{p},\mathbf{q}\) 的描述:

\[ \mathbf{v}=\mathbf{p}+i\mathbf{q}. \]

于是有:

\[ \begin{aligned} A\mathbf{v} &=A(\mathbf{p}+i\mathbf{q})\\ &=A\mathbf{p}+iA\mathbf{q}\\[12pt] \lambda\mathbf{v} &= (\alpha+i\beta)(\mathbf{p}+i\mathbf{q})\\ &=(\alpha\mathbf{p}-\beta\mathbf{q})+i(\beta\mathbf{p}+\alpha\mathbf{q}) \end{aligned} \]

因为 \(A\mathbf{v}=\lambda\mathbf{v}\),所以:

\[ A\mathbf{p} = \alpha \mathbf{p} - \beta \mathbf{q} , \quad A\mathbf{q} = \beta \mathbf{p} + \alpha \mathbf{q} \]

为真。所以 \(\mathbf{x}_\mathbb{R}'=A\mathbf{x}_\mathbb{R}\) 为真。

小结

对于平面一阶齐次线性微分方程组:

\[ \mathbf{x}'=A\mathbf{x}. \]

如果

\[ A=\begin{pmatrix}a&b\\c&d\end{pmatrix} \text{ 满足判别式 } \Delta=(a+d)^2-4(ad-bc)<0, \]

那么特征值为一对共轭复数:

\[ \begin{aligned} \lambda &= \alpha+i\beta\\[12pt] \mu &= \alpha-i\beta \end{aligned} \]

对应的特征向量可以取为:

\[ \begin{aligned} \mathbf{v} &= \begin{pmatrix}-b\\a-\lambda\end{pmatrix} = \mathbf{p} + i\mathbf{q} \\[12pt] \mathbf{w} &= \begin{pmatrix}-b\\a-\mu\end{pmatrix} = \mathbf{p} - i\mathbf{q} \end{aligned} \]

其中

\[ \begin{aligned} \mathbf{p} &= \begin{pmatrix}-b\\a-\alpha\end{pmatrix}\\[12pt] \mathbf{q} &= \begin{pmatrix}0\\-\beta\end{pmatrix} \end{aligned} \]

最终,该线性组的复数通解为:

\[ \mathbf{x} = c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\mu t} \mathbf{w} \]

实数通解为:

\[ \boxed{ \mathbf{x}_\mathbb{R} = e^{\alpha t} \left[ k_1 \left(\mathbf{p}\cos{\beta t} - \mathbf{q}\sin{\beta t}\right) + k_2 \left(\mathbf{p}\sin{\beta t} + \mathbf{q}\cos{\beta t}\right) \right] } \]

接下来,我们讨论 \(p(\lambda)=0\) 重根的情况。

Case 3: \(p(\lambda)=0\) 为重根

对于矩阵 \(A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\),当其特征方程 \(p(\lambda)=0\) 有重根 \(\lambda\) 时,我们能够得到通解的第一个部分 \(e^{\lambda t}\mathbf{v}\)。但我们只有一个特征向量,无法张成整个二维空间。同时,我们也期望通解的形式为:\(\mathbf{x} = c_1 e^{\lambda t} \mathbf{v} + c_2 e^{\lambda t} \mathbf{w}\)

所以,我们现在需要找到一个向量 \(\mathbf{w}\) 满足:

  1. \(\mathbf{v}\)\(\mathbf{w}\) 线性无关
  2. \((A-\lambda I)\mathbf{w}=\mathbf{v}\)

关于第1点,我能够理解,因为我们需要张成整个二维空间,所以需要两个线性无关的向量作为基向量。但是关于第2点,这只是我从其它的资料里挪用过来的,我并不理解为什么需要这样,这涉及了一个被称作“广义特征向量”的概念,我对此毫无头绪。但就让我这样继续吧。

我们可以将 \(\mathbf{w}\) 表示为 \(t\mathbf{v}+\mathbf{u}\),于是有:

\[ \begin{aligned} (A-\lambda I)\mathbf{w} &= (A-\lambda I)(t\mathbf{v}+\mathbf{u})\\ &=tA\mathbf{v}+A\mathbf{u}-t\lambda I\mathbf{v}-\lambda I\mathbf{u}\\ &=A\mathbf{u}-\lambda I \mathbf{u}\\ &=(A-\lambda I)\mathbf{u}\\ &=\mathbf{v} \end{aligned} \]

由上式,我们能够解得 \(\mathbf{u}\),我们称其为广义特征向量。

最终,通解为:

\[ \mathbf{x}=c_1 e^{\lambda t}\mathbf{v} + c_2 e^{\lambda t}(t\mathbf{v}+\mathbf{u}) \]

小结

对于平面一阶齐次线性微分方程组:

\[ \mathbf{x}'=A\mathbf{x}. \]

如果

\[ A=\begin{pmatrix}a&b\\c&d\end{pmatrix} \text{ 满足判别式 } \Delta=(a+d)^2-4(ad-bc)=0, \]

那么特征值为重根:

\[ \lambda=\frac{a+d}{2} \]

对应的特征向量可以取为:

\[ \mathbf{v}=\begin{pmatrix}-b\\a-\lambda\end{pmatrix} \text{ 或 } \begin{pmatrix}d-\lambda\\-c\end{pmatrix} \]

对应的广义特征向量 \(\mathbf{u}\) 满足:

  • \(\mathbf{v}\)\(\mathbf{u}\) 线性无关
  • \((A-\lambda I)\mathbf{u}=\mathbf{v}\)

最终,该线性组的通解为:

\[ \boxed{ \mathbf{x}=c_1 e^{\lambda t}\mathbf{v} + c_2 e^{\lambda t}(t\mathbf{v}+\mathbf{u}) } \]

5. 总结(重述三个小结)

我把我的三个小结丢给AI,它帮我做的总结~

对于平面一阶齐次线性微分方程组 \[ \mathbf{x}' = A\mathbf{x},\quad A = \begin{pmatrix}a & b \\ c & d\end{pmatrix}, \] 其行为完全由矩阵 \(A\) 的判别式 \[ \Delta = (a + d)^2 - 4\,(ad - bc) \] 的符号决定。下面给出三种情形下的通解形式:

5.1. 两个不同的实特征值(\(\Delta>0\)

  • 特征值 \[ \lambda_{1,2} = \frac{(a+d)\pm\sqrt{\Delta}}{2}, \quad \Delta=(a+d)^2-4(ad-bc)>0. \]
  • 特征向量 对应 \(\lambda_1\) 可取 \(\mathbf{v}=\bigl(-b,\;a-\lambda_1\bigr)^{\mathsf T}\), 对应 \(\lambda_2\) 可取 \(\mathbf{w}=\bigl(-b,\;a-\lambda_2\bigr)^{\mathsf T}\)
  • 通解 \[ \mathbf{x}(t) = c_1\,e^{\lambda_1 t}\,\mathbf{v} + c_2\,e^{\lambda_2 t}\,\mathbf{w}. \]

5.2. 共轭复特征值(\(\Delta<0\)

  • 特征值 \[ \lambda,\overline\lambda = \alpha\pm i\beta, \quad \alpha=\tfrac{a+d}{2},\quad \beta=\tfrac{\sqrt{-\Delta}}{2}. \]
  • 对应实部/虚部向量\(\mathbf{v}=\mathbf{p}+i\mathbf{q}\), 可取 \(\mathbf{p}=\bigl(-b,\;a-\alpha\bigr)^{\mathsf T}\), \(\mathbf{q}=\bigl(0,\;-\beta\bigr)^{\mathsf T}\)
  • 实数通解 \[ \mathbf{x}(t) = e^{\alpha t}\Bigl[ k_1\bigl(\mathbf{p}\cos\beta t - \mathbf{q}\sin\beta t\bigr) + k_2\bigl(\mathbf{p}\sin\beta t + \mathbf{q}\cos\beta t\bigr) \Bigr]. \]

5.3. 重特征值(\(\Delta=0\)

  • 特征值 \[ \lambda = \frac{a+d}{2}, \quad \Delta=(a+d)^2-4(ad-bc)=0. \]
  • 特征向量 取任一非零解 \(\mathbf{v}=\bigl(-b,\;a-\lambda\bigr)^{\mathsf T}\)
  • 广义特征向量\(\mathbf{u}\) 满足 \((A-\lambda I)\,\mathbf{u}=\mathbf{v}\),且 \(\mathbf{u}\)\(\mathbf{v}\) 线性无关。
  • 通解 \[ \mathbf{x}(t) = c_1\,e^{\lambda t}\,\mathbf{v} + c_2\,e^{\lambda t}\bigl(t\,\mathbf{v} + \mathbf{u}\bigr). \]

以上