线性代数考研笔记

线性代数概览

image

线性代数主要引入了几个工具,然后用这些工具解决了三个方面的问题。

本文也分成三个部分,第一部分重点介绍这几个概念的性质、几何意义、其计算方法,第二部分着重于如何解方程组,第三部分介绍相似理论,第四部分二次型。

第一部分 基本概念

向量与基向量

沿着坐标轴方程的单位向量叫做基向量,比如在平面内,有两个基向量i,j:
image

i在x轴方向上长度为1,在y轴方向上程度为0:
i = \begin{bmatrix} 1 \newline 0 \end{bmatrix}

j在x轴方向上长度为0,在y轴方向上程度为1:
j = \begin{bmatrix} 0 \newline 1 \end{bmatrix}

很明显,向量是基向量的线性组合。

image

线性相关与线性无关

当两个向量线性无关时,线性组合a \vec{v}+b \vec{w}可以为平面中任意向量。
image

当两向量线性相关时,两向量共线,即\vec{v}=a \vec{w}

image

从这里可以看出,增加线性相关的向量并不能使要表达的张成空间更大,线性组合所能表达的张成空间是有线性无关的向量决定的。

同样的道理,在三维空间中,如果有一个向量落在前两个向量组成的平面内,也不能增加所要表达的张成空间。

线性无关向量集

线性无关向量集是张成空间的一个基。因为线性相关的向量对张成空间的表达没有任何影响,而线性无关的向量却可以决定张成空间的表达。

另外,矩阵中线性无关向量就是线性变换后线性空间的基。

矩阵乘法

矩阵乘法的几何意义是对一个向量做线性变换。而矩阵所描述的是如何更改基向量。实际上矩阵中的值就是变换后的基向量。例如:

\begin{bmatrix} -5\newline 2 \end{bmatrix}\begin{bmatrix} 1&3 \newline -2&0 \end{bmatrix}的意思是让\begin{bmatrix} -5\newline 2 \end{bmatrix}的基由\begin{bmatrix} 1&0 \newline 0&1 \end{bmatrix}变为\begin{bmatrix} 1&3 \newline -2&0 \end{bmatrix}

两个矩阵相乘实际上是表达了两种线性变换的叠加。例如,对向量v连续做两次线性变换等效于直接做一次线性变换:
v\begin{bmatrix} 1&1 \newline 0&1 \end{bmatrix}\begin{bmatrix} 0&-1 \newline 1&0 \end{bmatrix} = v\begin{bmatrix} 1&-1 \newline 1&0 \end{bmatrix}

所以可以得矩阵乘法公式是:第一行乘第一列,第二行乘第二列.......
以二阶为例:
\begin{pmatrix} a&b\\c&d \end{pmatrix}\begin{pmatrix} x&y\\z&w \end{pmatrix}= \begin{pmatrix} ax+bz&ay+bw\\cx+dz&cy+dw \end{pmatrix}

k\left[\begin{array}{cc}\boldsymbol{A} & \boldsymbol{B} \\ \boldsymbol{C} & \boldsymbol{D}\end{array}\right]=\left[\begin{array}{cc}k \boldsymbol{A} & k \boldsymbol{B} \\ k \boldsymbol{C} & k \boldsymbol{D}\end{array}\right]

左行右列定理

用初等矩阵左乘一个矩阵相当于对这个矩阵做相同的初等变换。

用初等矩阵右乘一个矩阵相当于对这个矩阵做相同的初等变换。

行列式

二维行列式的几何意义是经过线性变换后张成空间单位面积改变的比例。

相应的,三维空间中,行列式的几何意义是经过线性变换后张成空间单位体积改变的比例。

行列式为0,说明经过线性变换后,体积或面积没有了,也就是被降维了,即矩阵中有线性相关的列。

这也可以用来解释为什么没有2*3的行列式。

行列式的性质:

  1. |A| = |A^T| 💥虽然矩阵的逆不好理解,但是这个性质很容易从数值上证明相等
  2. \begin{vmatrix} *\\0...0\\* \end{vmatrix}=0,矩阵有0向量,降维了体积一定是0。
  3. \begin{vmatrix} *\\a_1...a_n\\ka_1...ka_n\\* \end{vmatrix}=0,矩阵线性相关,也是降维了。
  4. \begin{vmatrix} *\\a_1+b_1...a_n+b_n\\* \end{vmatrix}=\begin{vmatrix} *\\a_1...a_n\\* \end{vmatrix}+\begin{vmatrix} *\\b_1...b_n\\* \end{vmatrix}
  5. \begin{vmatrix} a\\b \end{vmatrix}=-\begin{vmatrix} b\\a \end{vmatrix},向量互换,面积的朝向变了,所以正负改变。
  6. k\begin{vmatrix} *\\a_1...a_n\\* \end{vmatrix}=\begin{vmatrix} *\\ka_1...ka_n\\* \end{vmatrix},其中一个向量增加k倍,面积就会增加k倍
  7. \begin{vmatrix} a\\b \end{vmatrix}=\begin{vmatrix} a\\ka+b\end{vmatrix} ,可以由4推到出

计算:
主(正)对角线相乘加正号,副(负)对角线相乘加负号。
\begin{vmatrix} a_{11}&a_{12}\\a_{21}&a_{22} \end{vmatrix}=a_{11}a_{12}-a_{21}a_{22}

\begin{vmatrix} a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23} \\a_{31}&a_{32}&a_{33} \end{vmatrix}=a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{21}a_{32}a_{13}
-a_{13}a_{22}a_{31}-a_{11}a_{23}a_{32}-a_{12}a_{21}a_{33}

展开式法:
\begin{vmatrix} a_{11}&...&a_{1n} \\...&...&... \\a_{n1}&...&a_{nn} \end{vmatrix} = \begin{cases}a_{i1}A_{i1}+...+a_{in}A_{in}\\a_{1j}A_{2j}+...+a_{nj}A_{nj}\end{cases}

注意矩阵与行列式与实数的乘法,|2A| = 2^{n}|A|,这是因为2A会使A的每行都乘2,取行列式后,每行都可以提出来一个2.

余子式与代数余子式

余子式M_{ij}表示行列式去掉第i行和第j列后,剩下的元素组成的新的行列式。

代数余子式A_{ij} = (-1)^{i+j}M_{ij}

a_{i 1} A_{i 1}+a_{i 2} A_{i 2}+\cdots+a_{i n} A_{i n}=\left|\begin{array}{cccc} & & * &  \\ a_{i 1} & a_{i 2} & \cdots & a_{i n}  \\ & & * &  \end{array}\right|

这其实是按第i行展开的逆用。

逆矩阵

只要空间没被降维,即|A| \neq 0,那么就一定能找到一个逆向的变换。
\vec{v} \stackrel{A} \longrightarrow \vec{w}
\vec{w} \stackrel{A^{-1}} \longrightarrow \vec{v}

因为AA^{-1} = E,而线性变换A可以同时拆分乘多个初等变换P_s...P_2P_1,所以有定理:可逆矩阵A,经过若干次初等行变换一定可以化成同阶单位阵E,即:

P_s...P_2P_1A = E

两边同时乘以A^{-1}
P_s...P_2P_1E = A^{-1}

所以用同样的变换可以把A化乘E,也可以将E化成A^{-1}

[A| E]\overset{\text{初等行变换}}{\longrightarrow}[E|A^{-1}]

伴随矩阵

伴随矩阵与逆矩阵作用相似,都是还原一个线性变换,区别是:
逆矩阵是将拉长的维度压缩,将压缩的维度拉长。
伴随矩阵是让拉长的维度保持不变,拉长其它所有的维度

所以伴随矩阵与逆矩阵有倍数关系:

\frac{A^{*}}{A^{-1}}=|A|

行列式刚好是前面提到的张成空间被放大的比例。

上式两边同时乘E,可得

AA^* = |A|E

由此可以得到A^*的数值为:

A^* = \left[\begin{array}{ccc}
A_{11} & A_{21} & A_{31}\\
A_{12} & A_{22} & A_{32}\\
A_{13} & A_{23} & A_{33}
\end{array}\right]

A^*是代数余子式竖着写,因为只有这样才能使AA^* = |A|E

两边取行列式:

\Big |A A^{*} \Big |=\Big || A|E\Big |=
\left |\begin{array} {ccc}
|A| &   &   \\
  &  \ddots &   \\
  &   &  |A|\\
\end{array}\right |

即:

|A|| A^{*} |=|A|^n

即:

| A^{*} |=|A|^{n-1}

转置矩阵

转置矩阵的几何意义比较难以理解,好在翻遍整个线性代数转置出现的次数极少,说明至少在考研中转置不重要,只需从数值层面将转置理解为行和列互换即可。

矩阵的秩

矩阵的秩是经过线性变换后空间的维度。

通过初等变化将矩阵化为阶梯形,阶梯数即为矩阵的秩。

矩阵的秩有太多重要公式,而且证明过程也比较麻烦,所以需要直接记忆:

  1. 可逆矩阵不改变A的秩,若P,Q为可逆矩阵,则:

r(A)=r(P A)=r(AQ)=r(PA Q)

  1. r(A B) \leqslant \min \{r(A), r(B)\}

  2. r(AB) \geqslant r(A)+r(B)-n

  3. AB=O 时, r(A)+r(B) \leqslant n

  4. r(A)=r\left(A^{\mathrm{T}}\right)=r\left(AA^{\mathrm{T}}\right)=r\left(A^{\mathrm{T}} A\right)

  5. r\left(\boldsymbol{A}^{*}\right)= \begin{cases}n, & r(\boldsymbol{A})=n \\ 1, & r(\boldsymbol{A})=n-1 \\ 0, & r(\boldsymbol{A})<n-1\end{cases}

  6. \boldsymbol{A}n 阶方阵, \boldsymbol{A}^{2}=\boldsymbol{A}, 则 r(\boldsymbol{A})+r(\boldsymbol{E}-\boldsymbol{A})=n

  7. \boldsymbol{A}n 阶方阵, \boldsymbol{A}^{2}=\boldsymbol{E}, 则 r(\boldsymbol{A}+\boldsymbol{E})+r(\boldsymbol{A}-\boldsymbol{E})=n

非方阵的矩阵乘法的几何意义

\begin{bmatrix} 2&3\\-1&1\\-2&1 \end{bmatrix} \quad代表了什么?升维了吗?
不,化简后为\begin{bmatrix} 1&0\\0&1\\0&0 \end{bmatrix} \quad,还是二维的,只是把二维的坐标用三维表示了而已,本质还是二维,可以理解乘三维中的平面。

\begin{bmatrix} 3&1&4\\1&5&9 \end{bmatrix} \quad呢?
这是实打实的降维没错了,3维降到二维了。

点积

w\cdot v=w v^T

把它理解成向量w经过线性变换v^T
v^T是一维的,所以一定是降维了。把向量映射到了直线上,这点有点像PCA降维。

叉积

\vec v \times \vec w的结果是法向量,大小等于\vec v\vec w围成的平行四边形的面积。注意叉积的结果是向量。

逆、伴随、转置相关运算

穿脱原则:
(AB)^{-1} = B^{-1}A^{-1}
(AB)^{T} = B^{T}A^{T}
(AB)^{*} = B^{*}A^{*}

逆、伴随、转置可以交换:
(A^{-1})^* = (A^{*})^{-1}
(A^{T})^* = (A^{*})^{T}
(A^{-1})^T = (A^{T})^{-1}

分块

\left|\begin{array}{ll}\boldsymbol{A} & \boldsymbol{O} \\ \boldsymbol{O} & \boldsymbol{B}\end{array}\right|=\left|\begin{array}{cc}\boldsymbol{A} & \boldsymbol{C} \\ \boldsymbol{O} & \boldsymbol{B}\end{array}\right|=\left|\begin{array}{ll}\boldsymbol{A} & \boldsymbol{O} \\ \boldsymbol{C} & \boldsymbol{B}\end{array}\right|=|\boldsymbol{A}||\boldsymbol{B}|
\left|\begin{array}{ll}\boldsymbol{O} & \boldsymbol{A} \\ \boldsymbol{B} & \boldsymbol{O}\end{array}\right|=\left|\begin{array}{cc}\boldsymbol{C} & \boldsymbol{A} \\ \boldsymbol{B} & \boldsymbol{O}\end{array}\right|=\left|\begin{array}{cc}\boldsymbol{O} & \boldsymbol{A} \\ \boldsymbol{B} & \boldsymbol{C}\end{array}\right|=(-1)^{m n}|\boldsymbol{A}||\boldsymbol{B}|

\left[\begin{array}{cccc}\boldsymbol{A}_{1} & & & \\ & \boldsymbol{A}_{2} & & \\ & & \ddots & \\ & & & \boldsymbol{A}_{s}\end{array}\right]^{-1} =\left[\begin{array}{cccc}\boldsymbol{A}_{1}^{-1} & & & \\ & \boldsymbol{A}_{2}^{-1} & & \\ & & \ddots & \\ & & & \boldsymbol{A}_{s}^{-1}\end{array}\right]

\newcommand\iddots{\mathinner{
  \kern1mu\raise1pt{.}
  \kern2mu\raise4pt{.}
  \kern2mu\raise7pt{\Rule{0pt}{7pt}{0pt}.}
  \kern1mu
}} \left[\begin{array}{ccc} & & & \boldsymbol{A}_{1} \\ & & \boldsymbol{A}_{2} & \\ & \iddots & & \\ \boldsymbol{A}_{s} & & & \end{array}\right]^{-1}=\left[\begin{array}{ccc} & & & \boldsymbol{A}_{1} \\ & & \boldsymbol{A}_{2} & \\ & \iddots & & \\ \boldsymbol{A}_{s} & & & \end{array}\right]

向量组等价与矩阵等价

两个矩阵等价是指:这两个矩阵形状相同,且秩相等。

两个向量组等价是指:这两个向量组能相互线性表出。

第二部分 解方程组

按照中学的加减消元法解方程组,可以对它做3种操作:

  1. 互换两行位置。
  2. 某一行乘k倍。
  3. 把某一行加到另一行

这些操作相当于做初等行变换,也就是说,对方程组做初等行变换后得到的方程组是同解的。做这部分题时要想着解的是方程组,要与中学知识相对照

基础解系

基础解系是一组线性无关的解向量,所有的解都可以由基础解系线性表出。

几何意义上,基础解系描述了解向量的向量空间。

下列方程:

\left(\begin{array}{lllll}1&&&& \\ &1&&&  \\ &&1&& \\ &&&0&\\ &&&&0\end{array}\right)\left(\begin{array}{l}x_{1} \\ x_{2} \\ x_{3} \\ x_{4} \\ x_{5}\end{array}\right)=0

若因为结果为0向量,所以x_{1},x_{2},x_{3}必然为0,x_{3}, x_{4}为任意常数。若想描绘解向量的空间,需要用两个线性无关的解向量的线性组合:

x = k_1\left(\begin{array}{l}0\\0 \\ 0 \\ 1 \\ 0\end{array}\right)+k_2\left(\begin{array}{l}0\\0 \\ 0 \\ 0 \\ 1\end{array}\right)

所以基础解系为:

\alpha_1 =\left(\begin{array}{l}0\\0 \\ 0 \\ 1 \\ 0\end{array}\right),\alpha_2=\left(\begin{array}{l}0\\0 \\ 0 \\ 0 \\ 1\end{array}\right)

通过这个例子,不难发现基础解系的个数为S=n-r(A)

非齐次线性方程组Ax=b

r(A)=n时,这相当于将x线性变换后为b,一定有唯一解。唯一解可以化阶梯计算,也可以根据克拉默法则计算:

x_1 = \frac{|A_1|}{|A|},x_2 = \frac{|A_2|}{|A|},x_3 = \frac{|A_3|}{|A|},...

r(A)<n时,分两种情况:

无穷多解时的通解等于对应齐次方程的通解非齐次线性方程特解

x=\eta+k_1\xi_1+k_2\xi_2

例如:
\left\{\begin{aligned}x_{1}+x_{2}+x_{3}+x_{4}+x_{5}=2 \\ 2 x_{1}+3 x_{2}+x_{3}+x_{4}-3 x_{5}=0 \\ x_{1}+2 x_{3}+3 x_{4}+3 x_{5}=4 \\ 4 x_{1}+5 x_{2}+3 x_{3}+2 x_{4}+2 x_{5}=6\end{aligned}\right.

所以我们用初等行变换把系数矩阵化为阶梯型:
\left[\begin{array}{ccccc|c}
1 & 1 & 1 & 1 & 1 & 2 \\
2 & 3 & 1 & 1 & -3 & 0 \\
1 & 0 & 2 & 3 & 3 & 4 \\
4 & 5 & 3 & 2 & 2 & 6
\end{array}\right] \overset{初等行变换}{\longrightarrow} \left[\begin{array}{ccccc|c}
1&1&1&1&1&2 \\
&1&-1&-1&-5&-4 \\
&&&1&-3&-2 \\
&&&&0&0 \\
\end{array}\right]

计算基础解系的个数:

S = n-r(A)= 2

对自由变量x_{3},x_{5}用1,0和0,1赋值,带入对应齐次方程的同解方程组,求出对应齐次方程的解向量:

\xi_1 =(\begin{array}{ccccc}-2&1&\color{red}{1}&0&\color{red}{0}\end{array})^T
\xi_2 =(\begin{array}{ccccc}-12&8&\color{red}{0}&3&\color{red}{1}\end{array})^T

用全0赋值,带入非齐次方程的同解方程组,求出非齐次方程的特解:

\eta  =(\begin{array}{ccccc}10&-6&\color{red}{0}&-2&\color{red}{0}\end{array})^T

结合起来得到通解:

x=\eta+k_1\xi_1+k_2\xi_2

齐次线性方程组Ax=0

齐次线性方程组相当于非齐次线性方程组的特例,它一定有r(A) = r(\bar A),所以省去了判断是否有解的步骤。

例如:
\left\{\begin{array}{c}x_{1}+2 x_{2}+3 x_{3}+2 x_{4}+5 x_{5}=0 \\ 2 x_{1}+2 x_{2}+x_{3}+3 x_{4}+x_{5}=0 \\ 3 x_{1}+4 x_{2}+3 x_{3}+4 x_{4}+3 x_{5}=0\end{array}\right.

所以我们用初等行变换把系数矩阵化为阶梯型:
A \overset{初等行变换}{\longrightarrow} \left[\begin{array}{ccccc}1 & 2 & 3 & 2 & 5 \\ 0 & 2 & 5 & 1 & 9 \\ 0 & 0 & 1 & 1 & 3\end{array}\right]

计算基础解系的个数:

S = n-r(A)= 2

对自由变量用1,0和0,1赋值,带入同解方程组,得:

\xi_1 =(\begin{array}{ccccc}-3&2&-1&\color{red}{1}&\color{red}{0}\end{array})^T
\xi_2 =(\begin{array}{ccccc}-2&3&-3&\color{red}{0}&\color{red}{1}\end{array})^T

所以通解为:
x= k_1\xi_1+k_2\xi_2

第三部分 相似理论

注:相似理论讨论的矩阵都是方阵。

特征值与特征向量

对二维的空间做线性变换后,有些向量只改变了大小,没有改变方向。

A\xi=\lambda \xi

这些向量就是该二维空间的特征向量。大小改变的比例就是特征值。移项得特征方程:

(\lambda E-A)\xi=0

这就是一个齐次线性方程组,若有解则:

|\lambda E-A|=0

可以解出特征值\lambda_0。注意:这个行列式为\lambda的三阶方程,但总可以通过变换将\lambda作为某行的公因式提出,从而行列式变为\lambda的二阶方程。
将解出的特征值代入特征方程:

(\lambda_0 E-A)\xi=0

即可解出特征向量\xi_0.

重要结论:

关于特征值还有两个特别重要的性质:

  1. |\boldsymbol{A}|=\lambda_{1} \lambda_{2} \cdots \lambda_{n}
  2. \operatorname{tr}(\boldsymbol{A})=\lambda_{1}+\lambda_{2}+\cdots+\lambda_{n}

因为|\boldsymbol{A}|表示整体缩放的体积,而特征值代表各维度缩放的大小,所以特征值的乘积等于行列式。

对于公式2,可以将A相似对角化P^{-1}AP = \Lambda,等式两边同时取迹tr(P^{-1}AP) = tr(\Lambda),根据迹的性质,矩阵交换后迹相等tr(P^{-1}AP) = tr(AP^{-1}P) = tr(\Lambda),即tr(A) = \lambda_{1}+\lambda_{2}+\cdots+\lambda_{n}

\begin{array}{c|ccccccc}
\hline \text { 矩阵 } & A & k A & A^{k} & f(A) & A^{-1} & A^{*} & P^{-1} A P &A^T\\
\hline \text { 特征值 } & \lambda & k \lambda & \lambda^{k} & f(\lambda) & \frac{1}{\lambda} & \frac{|A|}{\lambda} & \lambda &\lambda\\
\hline \text { 对应的特征向量 } & \xi & \xi & \xi & \xi & \xi & \xi & P^{-1} \xi &\text{单独计算}\\
\hline
\end{array}

相似与相似对角化

相似的定义:

A=PBP^{-1}

相似的几何意义是在不同基中的同一个线性变换。也就是说A、B的数值不同只是因为坐标系不同而已,其它的性质完全相同。所以如果A \sim B,则A和B:

这些性质都是必要条件,不是充分条件。究其原因是我们不能根据上面这些性质确定P。

相似对角化的定义:

A = P\Lambda P^{-1}

对于相似对角化,\Lambda是特征值组成的对角阵,P是特征向量组成的,这就很容易确定P。因为P是可逆矩阵,所以矩阵A有n个线性无关的特征向量,那么组成的P就一定可逆,A就一定可以相似对角化。如果矩阵A没有n个线性无关的特征向量,那么P的列就线性相关了,r(P)<n,则P不可逆,A不能相似对角化。

  1. 若特征值全都不同,因为不同特征值对应的特征向量一定线性无关,所以矩阵一定可以相似对角化。
  2. 若特征值有k重根,要求重根特征值有k个线性无关的特征向量。

正交矩阵

P^TP=E,对P做列分块,有:

P^TP=\left(\begin{array}{ll}
\alpha \\
\beta
\end{array}\right)\left(\begin{array}{ll}
\alpha & \beta
\end{array}\right)=\left(\begin{array}{cc}
\|\alpha\|^{2} & (\alpha, \beta) \\
(\beta, \alpha) & \|\beta\|^{2}
\end{array}\right)=\left(\begin{array}{cc}
1 & 0 \\
0 & 1
\end{array}\right)

从而得出结论:

\left\{\begin{array}{l}\|\alpha\|=1,\|\beta\|=1 \\ \alpha \perp \beta\end{array}\right. \Longrightarrow \alpha,\beta是正交的单位向量

所以若P^TP=E,则P为正交矩阵。

实对称矩阵

A=A^T,换言之它是关于主对角线对称的,这样的矩阵被称为实对称矩阵。

实对称矩阵有很多性质:

  1. 实对称矩阵必可用正交矩阵Q相似对角化。即存在Q^{-1}AQ=Q^{-1}AQ=\Lambda
  2. 实对称矩阵不同特征值的特征向量相互正交。
  3. 实对称矩阵的n次幂还是实对称矩阵,(A^n)^T = (A^T)^n = A^n

第四部分 二次型

注:二次型讨论的矩阵都是实对称矩阵。

二次形、标准形、规范形

二次形是一个二次齐次多项式

为什么多项式的内容会放到线性代数里面?
因为任何一个二次形都可以化成f=X^TAX的形式,其中A是实对称矩阵。

标准型:只有二次项,没有交叉项的二次形。
规范型:系数为\pm 1,0的标准形。

正惯性指数=二次项正系数个数=正特征值个数
负惯性指数=二次项负系数个数=负特征值个数

用配方法将二次型化标准型、规范型

\begin{aligned} f(x_1,x_2,x_3)&=4x_2^2-3x_3^2+4x_1x_2-4x_1x_3+8x_2x_3\\
&= (4x_2^2+4x_1x_2+8x_2x_3+x_1^2+4x_3^2+4x_1x_3)-x_1^2-7x_3^2-8x_1x_3\\
&=(x_1+2x_2+2x_3)^2-(x_1+4x_3)^2+9x_3^2\end{aligned}

令:

\left\{\begin{array}{l}y_{1}=x_{1}+2 x_{2}+2 x_{3} \\ y_{1}=x_{1}+4 x_{3} \\ y_{3}=x_{3}\end{array} \quad \Rightarrow\left\{\begin{array}{l}x_{1}=y_{2}-4 y_{3} \\ x_{2}=\frac{1}{2} y_{1}-\frac{1}{2} y_{2}+y_{3} \\ x_{3}=y_{3}\end{array}\right.\right.

即:

\left(\begin{array}{l}x_{1} \\ x_{2} \\ x_{3}\end{array}\right)=\left(\begin{array}{ccc}0 & 1 & -4 \\ \frac{1}{2} & -\frac{1}{2} & 1 \\ 0 & 0 & 1\end{array}\right)\left(\begin{array}{l}y_{1} \\ y_{2} \\ y_{3}\end{array}\right)

注意:这里的线性变换一定要是可逆的。按照标准的配方法,第一次配x_1,后面就不再会出现x_1,第二次配x_2,剩下都是x_3,这样一定是可逆的。但如果不是自己配方,而是题目已经给好的,那就要注意了。

可得标准型:

f(y_1,y_2,y_3)=y_1^2-y_2^2+9y_3^2

令:

\left\{\begin{array}{l}z_{1}=y_{1} \\ z_{2}=y_{2} \\ z_{3}=3 y_{3}\end{array} \quad \Rightarrow \quad\left(\begin{array}{l}y_{1} \\ y_{2} \\ y_{3}\end{array}\right)=\left(\begin{array}{lll}1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & \frac{1}{3}\end{array}\right)\left(\begin{array}{l}z_{1} \\ z_{2} \\ z_{3}\end{array}\right)\right.

可得规范型:

f(z_1,z_2,z_3)=z_1^2-z_2^2+z_3^2

用正交变换法将二次型化标准型、规范型

二次项前面的系数写到主对角线上,交叉项前面的系数除2,写到对称的两侧。

\begin{aligned} f(x_1,x_2,x_3)&=4x_2^2-3x_3^2+4x_1x_2-4x_1x_3+8x_2x_3\\
&=\begin{pmatrix} x_1&x_2&x_3\end{pmatrix}\begin{pmatrix} 0&2&-2\\2&4&4\\ -2&4&-3\end{pmatrix}\begin{pmatrix} x_1\\x_2\\x_3\end{pmatrix}\end{aligned}

由二次项的多项式化为矩阵形式的过程可知,A的主对角线是二次项系数,其它位置是交叉项系数,所以只要将A相似对角化,交叉项就会消失

\begin{pmatrix} 0&2&-2\\2&4&4\\ -2&4&-3\end{pmatrix} = P^{-1}\Lambda P

这里需要用正交矩阵相似对角化,因为正交矩阵Q^{-1}=Q^T,可以保证变化后还是二次型:

f=x^TAx=x^TQ^{-1}\Lambda Qx=x^TQ^T\Lambda Qx=y^T\Lambda y

所以还需将P正交化和单位化,如果A的特征值都不相同,那么无需正交化,因为实对称矩阵不同特征值对应的特征向量相互正交。只需单位化即可。

将特征向量正交化

image
如上图所示,\alpha_1\alpha_2是两个不正交的特征向量,先计算夹角:

\alpha_{1} \cdot \alpha_{2}=\left|\alpha_{1}\right|\left|\alpha_{2}\right| \cos \theta

\cos \theta=\frac{\alpha_{1} \cdot \alpha_{2}}{\left|\alpha_{1}\right|\left|\alpha_{2}\right|}

计算\alpha_{2}\alpha_{1}上的投影:

\alpha_{2}^{\prime}=\frac{\alpha_{1} \cdot \alpha_{2}}{\left|\alpha_{1}\right|\left|\alpha_{2}\right|}\left|\alpha_{2}\right|\frac{\alpha_{1}}{\left|\alpha_{1}\right|}

做向量减法可得垂直于\alpha_{1}的向量:

\beta_2=\alpha_{2}-\alpha_{2}^{\prime}=\alpha_{2}-\frac{\alpha_{1} \cdot \alpha_{2}}{\left|\alpha_{1}\right|^2}\alpha_{1}

还有一种方法是用两个已经垂直的特征向量计算向量积,得出的向量一定是与这两个特征向量都垂直的:

\beta = \alpha_1 \times \alpha_2

实对称矩阵的合同

相似是变换到最佳位置,而合同也是变换,但是没变换到最佳位置。“最佳位置”有C^TAC=C^{-1}AC=\Lambda,就是相似。没到最佳位置时C^TAC=B,为合同。

判断两个矩阵合同还是相似的方法:当特征值完全一样时,有可能相似;当正负特征值个数相同时,合同。相似的矩阵迹相同,也可以用这条快速判断是否相似。

正定二次形

二次形f=X^TAX,如果A的特征值都是正的,则A被称为正定矩阵,二次形为正定二次形。

显然正定二次形化为标准形后,对角线全正,其余位置都是0,二次项系数都为正,没有交叉项,所以正定二次形一定为正。

posted @ 2021-02-19 09:38:38
评论加载中...

发表评论