Posted on Leave a comment

如何判定一个向量组(vector set)是线性相关(linearly dependent)还是线性无关(linearly independent)?

我们从线性相关和线性无关的定义知道, 一个向量组 \((\vec{u}_1, \vec{u}_2,\cdots, \vec{u}_n)\) 是线性无关的,如果等式

\[ k_1 \vec{u}_1+k_2\vec{u}_2+\cdots+k_n\vec{u}_n=0 \]

仅当所有系数 \(k_i, 1\le i\le n\) 为 0 时才成立。反之,只要有一个 \(k_i\) 不等于 0 ,就能让这个等式成立,这个向量组就说是线性相关的。

那么从定义出发,我们要确定向量组是否线性无关,我们就需要求出所有的 \(k_i\),这并不是最有效的方法。如果我们将这个等式用矩阵的方式写出来,那么问题就变得简单了:

\[A\vec{x}=\vec{0}, \text{其中} A=\begin{pmatrix} \vec{u}_1&\vec{u}_2&\cdots&\vec{u}_n\end{pmatrix}, \quad \vec{x}=\begin{pmatrix}k_1\\k_2\\ \vdots\\ k_n\end{pmatrix} \]

这样一来, \(k_i, 1\le i\le n\) 全部为 0 就等价于方程组只有零解(平凡解,或者 trivial solution),而齐次线性方程组只有零解的等价条件有很多个:

  • \(\text{Rank} A=n\)
  • \(\text{det}A=|A|\ne 0\)
  • \(A\vec{x}=\vec{b}\) 有唯一解

等等。其实还有很多其它的条件,我们这里只列出常用的这几个。所有这些等价条件里,计算量最少的方法是求秩(rank)的方法。因为求秩的话,我们不需要求出解,也不用求矩阵的最简表达式。只需要求出它的阶梯形,所以计算最少。

我们举一个例子。判定下列向量组是线性相关还是线性无关?

\[(1) \begin{pmatrix}-1\\3\\1\end{pmatrix}, \begin{pmatrix}2\\1\\0\end{pmatrix}, \begin{pmatrix}1\\4\\1\end{pmatrix}\qquad (2) \begin{pmatrix}2\\3\\0\end{pmatrix}, \begin{pmatrix}-1\\4\\0\end{pmatrix}, \begin{pmatrix}0\\0\\2\end{pmatrix} . \]

解:(1)令

\[ A=\begin{pmatrix}-1&2&1\\3&1&4\\1&0&1\end{pmatrix} \]

对矩阵作初等变换,

\[ A=\begin{pmatrix}-1&2&1\\3&1&4\\1&0&1\end{pmatrix}\sim \begin{pmatrix} 1&0&1 \\3&1&4\\ -1&2&1 \end{pmatrix}\sim \begin{pmatrix} 1&0&1 \\0&1&1\\ 0&2&2 \end{pmatrix}\sim \begin{pmatrix} 1&0&1 \\0&1&1\\ 0&0&0 \end{pmatrix} \]

所以行阶梯形只有两个非零行,所以 \(\text{Rank}A=2<3\)。从而向量组是线性相关的。

(2)我们令 \[A= \begin{pmatrix} 2&-1&0 \\3&4&0\\ 0&0&2 \end{pmatrix}\sim \begin{pmatrix} 2&-1&0 \\0&\frac{11}{2}&0\\ 0&0&2 \end{pmatrix} \]

所以矩阵的行阶梯形有三个非零行,所以 \(\text{Rank}A=3\),所以向量组是线性无关的。

Posted on Leave a comment

怎么求矩阵方程(Matrix Equation)?

求解矩阵方程,很像解一个一元一次方程,第一步就要”合并同类项”,将未知矩阵放在一起,然后利用逆矩阵来求解。我们来看例子。

例 1:解矩阵方程\(AB=A+2B\),其中
\[A=\begin{pmatrix}
0&3&3\\
1&1&0\\
-1&2&3
\end{pmatrix}.\]

我们看到,两边都有\(B\),那第一步就是将要求的\(B\)放在一起。为此,我们将右边的\(2B\)移到左边,然后求\(A-2E\)的逆矩阵就可以得到\(B\)了。我们来看完整的过程。

解: 将方程右边的2B移到左边,方程变成了
\[AB-2B=A \rightarrow (A-2E)B=A.\]
所以,只要\(A-2E\)可逆,方程的解就是
\[B=(A-2E)^{-1}A.\]

现在我们来求\(A-2E\)的逆矩阵。首先,我们要证明其可逆。
\[|A-2E|=\begin{vmatrix}
-2&3&3\\
1&-1&0\\
-1&2&1
\end{vmatrix}=
\begin{vmatrix}
1&-3&0\\
1&-1&0\\
-1&2&1
\end{vmatrix}=2\ne0\]
所以\(A-2E\)可逆。现在我们来求它的逆。

我们教材上讲了两种求逆矩阵的方法,一种是伴随矩阵的方法,另一种是初等变换法。不要傻傻地去用伴随矩阵来求逆矩阵,费力又不讨好。虽然那是最开始讲的一种方法。

求逆矩阵最简便的方法是用初等变换法。现在我们就用它来求\(A-2E\)的逆矩阵。
\[\begin{align}(A-2E,E)&=\begin{pmatrix}
-2&3&3&\vdots& 1&0&0\\
1&-1&0&\vdots& 0&1&0\\
-1&2&1&\vdots &0&0&1
\end{pmatrix}\\
&\stackrel{r1 + r3 \times -3}{\sim}
\begin{pmatrix}
1&-3&0&\vdots& 1&0&-3\\
1&-1&0&\vdots& 0&1&0\\
-1&2&1&\vdots &0&0&1
\end{pmatrix}\\
&\stackrel{\stackrel{r3+r1}{\scriptsize{r2-r1}}}{\sim}
\begin{pmatrix}
1&-3&0&\vdots& 1&0&-3\\
0&2&0&\vdots& -1&1&3\\
0&-1&1&\vdots &1&0&-2
\end{pmatrix}\\
&\stackrel{r2\times \frac{1}{2}}{\sim}
\begin{pmatrix}
1&-3&0&\vdots& 1&0&-3\\
0&1&0&\vdots& -\frac{1}{2}&\frac{1}{2}&\frac{3}{2}\\
0&-1&1&\vdots &1&0&-2
\end{pmatrix}\\
&\stackrel{\stackrel{r1+r2\times 3}{\scriptsize{r3+r2}}}{\sim}
\begin{pmatrix}
1&0&0&\vdots& -\frac{1}{2}&\frac{3}{2}&\frac{3}{2}\\
0&1&0&\vdots& -\frac{1}{2}&\frac{1}{2}&\frac{3}{2}\\
0&0&1&\vdots &\frac{1}{2}&\frac{1}{2}&-\frac{1}{2}
\end{pmatrix}
\end{align}\]

所以
\[(A-2E)^{-1}=
\begin{pmatrix}
-\frac{1}{2}&\frac{3}{2}&\frac{3}{2}\\
-\frac{1}{2}&\frac{1}{2}&\frac{3}{2}\\
\frac{1}{2}&\frac{1}{2}&-\frac{1}{2}
\end{pmatrix}\]

将它乘在\(A\)的左边,就得到了\(B\):
\[\begin{align}B=(A-2E)^{-1}A&=
\begin{pmatrix}
-\frac{1}{2}&\frac{3}{2}&\frac{3}{2}\\
-\frac{1}{2}&\frac{1}{2}&\frac{3}{2}\\
\frac{1}{2}&\frac{1}{2}&-\frac{1}{2}
\end{pmatrix}
\begin{pmatrix}
0&3&3\\
1&1&0\\
-1&2&3
\end{pmatrix}\\
&=\begin{pmatrix}
0&3&3\\
-1&2&3\\
1&1&0
\end{pmatrix}
\end{align}\]

Posted on Leave a comment

怎么找矩阵的 Column space 和 Null Space (列空间和零空间)

Column space 和 Null space,听起来很难的样子,其实求它们并不算很难的一件事。在做完初等行变换(Row reduction),把矩阵变成行阶梯形(Row reduced form)后,Column space 的 basis 就很容易得到了,而求零空间,其实就是求齐次方程的解空间。我们来具体讲一下怎么求这两个空间。

因为向量空间(Vector space)完全可以由其基表示,所以只要求出它的基就可以。现在我们讲一讲怎么求列空间的基。只需要两步就可以。
第一步:将矩阵化成行阶梯形(REF)
第二步:找出每一个非零行,第一个非零元(pivot number)所在的列,对应的原矩阵里的列,就是列空间的基( Column space 的 basis)。

我们来看一个例子:设\(A\) 为如下的矩阵
\[
\begin{pmatrix}
1&4&8&-3&-7\\
-1&2&7&3&4\\
-2&2&9&5&5\\
3&6&9&-5&-2
\end{pmatrix}\]

通过初等行变换,它可以变成

\[
\begin{pmatrix}
1&4&8&0&5\\
0&2&5&0&-1\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}\]

现在已经变成了行阶梯形矩阵了。我们只需要找到每个非零行的首个非零元就知道列空间的基了。第一、二、三行都是非零行,它们的首个非零元在第一、二、四列,所以,列空间的基是原矩阵里的第一、二、四列,也就是说,\(Col A\) 的基由下列三个向量组成:

\[
\begin{pmatrix}
1\\
-1\\
-2\\
3
\end{pmatrix},
\begin{pmatrix}
4\\
2\\
2\\
6\end{pmatrix},
\begin{pmatrix}
-3\\
3\\
5\\
-5
\end{pmatrix}
\]

或者说 \[{\rm Col} A= {\rm span}\left(\begin{pmatrix}
1\\
-1\\
-2\\
3
\end{pmatrix},
\begin{pmatrix}
4\\
2\\
2\\
6\end{pmatrix},
\begin{pmatrix}
-3\\
3\\
5\\
-5
\end{pmatrix}\right)\]

现在我们转到怎么找零空间。由零空间的定义,\(Null A=\{\vec{x}|A\vec{x}=0\}\),所以,找零空间就是解方程组 \(A\vec{x}=0\}\) 。我们仍然以上面的 \(A\) 为例。我们先将它化成行最简形(RREF)
\[
\begin{pmatrix}
1&4&8&0&5\\
0&2&5&0&-1\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\sim
\begin{pmatrix}
1&0&-2&0&-3\\
0&1&\frac{5}{2}&0&-\frac{1}{2}\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\]

它的解是
\[\vec{x}=
C_1\begin{pmatrix}
2\\
-\frac{5}{2}\\
1\\
0\\
0
\end{pmatrix}+C_2
\begin{pmatrix}
3\\
\frac{1}{2}\\
0\\
-4\\
1
\end{pmatrix}
\]

所以零空间是
\[
Null A={\rm span}\left(\begin{pmatrix}
2\\
-\frac{5}{2}\\
1\\
0\\
0
\end{pmatrix},
\begin{pmatrix}
3\\
\frac{1}{2}\\
0\\
-4\\
1
\end{pmatrix}\right)
\]

Posted on Leave a comment

什么是线性相关(linearly dependent)和线性无关(linearly independent)?

在教材里,线性相关的定义是:对于一组向量(vectors)\((\vec{v}_1, \vec{v}_2, \cdots, \vec{v}_n)\),如果存在一组不全为 \(0\) 的数 \(k_1,k_2,\cdots, d_n\),使得 \(k_1\vec{v}_1+k_2\vec{v}_2+\cdots k_n\vec{v}_n=0\) 成立,就称这组向量是线性相关的。 如果只有当\(k_1,k_2,\cdots, d_n\) 全部为 \(0\) 时这个等式成立,那么就称这个向量组是线性无关的。

这个定义读起来比较拗口,也不是太容易理解。我试着来解释一下。一组不全为 \(0\) 的数,意思是至少有一个数不为 \(0\)。也就是说,至少有一个 \(k\) 不等于 \(0\),那么这组向量是线性相关的。那么这意味着什么呢?假如\(k_n\) 不等于 \(0\),那等式 \(k_1\vec{v}_1+k_2\vec{v}_2+\cdots k_n\vec{v}_n=0\) 就等价于
\[k_n\vec{v}_n=-k_1\vec{v}_1-k_2\vec{v}_2-\cdots -k_{n-1}\vec{v}_{n-1}\]
也就是说
\[v_n=-\frac{k_1}{k_n}\vec{v}_1-\frac{k_2}{k_n}\vec{v}_2-\cdots -\frac{k_{n-1}}{k_n}\vec{v}_{n-1}\]
这意味着\(\vec{v}_n\) 可以用其它的向量线性表示。这也是为什么我们说它们之间是线性相关的。

而线性无关就是说,除非\(k_1,k_2,\cdots, d_n\) 全部为 \(0\),否则 \(k_1\vec{v}_1+k_2\vec{v}_2+\cdots k_n\vec{v}_n=0\) 不可能成立。

我们来看两个例子。

例 1: 设 \(\vec{v}_1=\begin{pmatrix}1\\ 0\end{pmatrix}, \vec{v}_2=\begin{pmatrix}0\\ 1\end{pmatrix}, \vec{v}_3=\begin{pmatrix}2\\ -1\end{pmatrix}\),那么 \(-2\vec{v}_1+\vec{v}_2+\vec{v}_3=0\),也就是\(k_1=-2,k_2=1,k_3=1\),所以这组向量是线性相关的。

例2:设 \(\vec{v}_1=\begin{pmatrix}1\\ 0\\0\end{pmatrix}, \vec{v}_2=\begin{pmatrix}0\\ 1\\0\end{pmatrix}, \vec{v}_3=\begin{pmatrix}0\\ 0\\1\end{pmatrix}\),那么 \(k_1\vec{v}_1+k_2\vec{v}_2+k_3\vec{v}_3=\begin{pmatrix}k_1\\ k_2\\k_3\end{pmatrix}\),要使得这个向量等于 \(0\),只能 \(k_1=k_2=k_3=0\),所以这组向量是线性无关的。

Posted on Leave a comment

怎么寻找线性变换(linear transformation)所对应的矩阵?

\(\mathbb{R}^n\)上的线性变换有一个重要的定理,就是每一个线性变换 \(T\) ,都有一个矩阵 \(A\) 跟它对应,使得 \(T(\vec{x})=A\vec{x}\)。定理的结论是这样的:

定理: 假设 \(T\) 是 \(\mathbb{R}^n\) 上的一个线性变换,那么必定存在一个矩阵 \(A\) 使得
\[T(\vec{x})=A\vec{x},\]
并且
\[A=[T\vec{e}_1 \ T\vec{e}_2 \ \cdots T\vec{e}_n].\]

这个定理的前一部分说明了这样的矩阵是存在的,而后一部分说明了怎么样寻找这样的矩阵。

从定理的叙述可以看出,我们只要\(\mathbb{R}^n\) 上的标准基的像都找出来,那么我矩阵 \(A\) 就找出来了。也就是说,一般情况下,我们只要盯住标准基 \(\vec{e}_1,\vec{e}_2,\cdots,\vec{e}_n\),看它们怎么变就行了。当然,有些复杂一点的变换,我们需要用一点点其它的技巧。

我们来看两个例子。

例1 假设 \(\mathbb{R}^2\) 的一个线性变换 \(T\) 定义为将平面上的点以直线 \(y=x\) 作反射,求 \(T\) 所对就的矩阵 \(A\).

解:要求出这个矩阵,我们只需要知道两个向量 \(\vec{v}_1=\begin{pmatrix}1\\0\end{pmatrix}, \vec{v}_2=\begin{pmatrix}0\\1\end{pmatrix}\) 变成了什么就可以了。

显然,以直线 \(y=x\) 作反射,\(\vec{v}_1=\begin{pmatrix}1\\0\end{pmatrix}\) 就变成了\(\vec{v}_2=\begin{pmatrix}0\\1\end{pmatrix}\), 而\(\vec{v}_2=\begin{pmatrix}0\\1\end{pmatrix}\) 就变成了\(\vec{v}_1=\begin{pmatrix}1\\0\end{pmatrix}\)。所以
\[A=[T\vec{v}_1 \ T\vec{v}_2]=\begin{pmatrix}0&1\\ 1&0\end{pmatrix}\]

例2:假设 \(\mathbb{R}^2\) 的一个线性变换 \(T\) 定义为将平面上的点以直线 \(y=2x\) 作反射,求 \(T\) 所对就的矩阵 \(A\).

这个问题麻烦些,因为我们不能直接计算出 \(T\vec{v}_1\) 和 \(T\vec{v}_2\),但我们可以用间接的方式算出 \(A\)。

解:既然是以 \(y=2x\) 作反射轴,那么这条线上的所有的点是不变的。我们不妨选取点 \((1,2)\),那么 \(T \begin{pmatrix}1 \\ 2 \end{pmatrix} = \begin{pmatrix}1 \\ 2\end{pmatrix}\)。

但是 \(\begin{pmatrix}1\\2\end{pmatrix}=\vec{v}_1+2\vec{v}_2\), 由线性变换的性质,\(T(\vec{v}_1+2\vec{v}_2)=T\vec{v}_1+2T\vec{v}_2=\begin{pmatrix}1\\2\end{pmatrix}\)

另外,我们通过原点作垂直于\(y=2x\) 的直线。由直线垂直的性质,我们作出来的这条直线具有方程 \(y=-\frac{1}{2}x\)。这条直线上所有的点,都变成以原点为对称点的点。我们不妨选取点 \((-2,1)\),这个点变成 \((2,-1)\)。也就是说
\[T\begin{pmatrix}-2\\1\end{pmatrix}=\begin{pmatrix}2\\-1\end{pmatrix}\]
同样的道理, \(\begin{pmatrix}-2\\1\end{pmatrix}=-2\vec{v}_1+\vec{v}_2\),\(T(-2\vec{v}_1+\vec{v}_2)=-2T\vec{v}_1+T\vec{v}_2=\begin{pmatrix}2\\-1\end{pmatrix}\).

所以我们得到了两个方程,
\[\begin{cases}
T\vec{v}_1+2T\vec{v}_2=\begin{pmatrix}1\\2\end{pmatrix}\\
-2T\vec{v}_1+T\vec{v}_2=\begin{pmatrix}2\\-1\end{pmatrix}
\end{cases}\]

将 \(T\vec{v}_1\) 和 \(T\vec{v}_2\) 看成未知数,求解上述方程,我们得到解
\[
T\vec{v}_1=\begin{pmatrix}-\frac{3}{5}\\ \frac{4}{5}\end{pmatrix}, \quad
T\vec{v}_2=\begin{pmatrix}\frac{4}{5}\\ \frac{3}{5}\end{pmatrix}
\]

所以
\[A=\begin{pmatrix}
-\frac{3}{5}& \frac{4}{5}\\
\frac{4}{5}&\frac{3}{5}
\end{pmatrix}\]

Posted on Leave a comment

如何快速地写出方程组的解?

在教材上,通常求解方程组的时候,是将系数矩阵(coefficient matrix)或者增广矩阵(argument matrix)作初等行变换(row reduction)化成行阶梯形(row echelon form),然后写出它所对应的方程来求解。其实,这样的方法并不简便,特别是写回对应的方程,基本上是没有必要这样做。更有效的方法是将矩阵化成最简单的情形(Reduced row echelon form),然后根据系数直接写出解。我们用两个例子来说明这种方法。

我们行看一个齐次方程:

例1:求解线性方程组 \(A\vec{x}=0\),其中
\[A=
\begin{pmatrix}
1& 1& 2& 3\\
2& 0& 0& 2\\
3 &2& 4& 7
\end{pmatrix}\]

解:利用初等行变换,将系数矩阵化成行最简矩阵(我们省略具体步骤):

\[A=\begin{pmatrix}
1& 1& 2& 3\\
2& 0& 0& 2\\
3 &2& 4& 7
\end{pmatrix}
\sim
\begin{pmatrix}
1& 0& 0& 1\\
0 &1& 2& 2\\
0& 0&0& 0\\
\end{pmatrix}
\]

现在我们用一种比较快速的方法写出解。

我们知道每一个非零行的第一个非零元(pivot number) 所对应的未知元就是依赖元或者自由元(dependent variables),其它的叫自由元(free variables)。这里,自由元就是 \(x_3\) 和 \(x_4\),而非自由元是\(x_1,x_2\)。如果要快速地写出方程的解,可以这样作:

第一步,每次取一个自由元为 \(1\), 另外的所有自由元为 \(0\), 在这个题里,就是这样

\[\begin{pmatrix}
x_1\\
x_2\\
x_3\\x_4
\end{pmatrix}=x_3
\begin{pmatrix}
\\
\\
1\\
0
\end{pmatrix}+x_4
\begin{pmatrix}
\\
\\
0\\
1
\end{pmatrix}
\]

第二步,写出剩下的数字。剩下的数字怎么求呢? 我们只需要将自由元上的系数变个符号,就是非自由元的值。第一行,非自由元是 \(x_1\),它对应的 \(x_3\) 的系数是 \(0\),所以它在 \(x_3\) 那一部分的值是 \(0\);它对应 \(x_4\) 的系数是 \(1\),所以它对应于\(x_4\) 的部分是 \(-1\), 就是将 \(1\) 改个符号。就是这样:

\[\begin{pmatrix}
x_1\\
x_2\\
x_3\\x_4
\end{pmatrix}=x_3
\begin{pmatrix}
0\\
\\
1\\
0
\end{pmatrix}+x_4
\begin{pmatrix}
-1\\
\\
0\\
1
\end{pmatrix}
\]

而第二行,非自由元是 \(x_2\),它对应的 \(x_3\) 的系数是 \(2\),所以它在 \(x_3\) 那一部分的值是 \(-2\);它对应 \(x_4\) 的系数是 \(2\),所以它对应于\(x_4\) 的部分是 \(-2\)。所以方程的解就是

\[\begin{pmatrix}
x_1\\
x_2\\
x_3\\x_4
\end{pmatrix}=x_3
\begin{pmatrix}
0\\
-2\\
1\\
0
\end{pmatrix}+x_4
\begin{pmatrix}
-1\\
-2\\
0\\
1
\end{pmatrix}
\]

那么对于非齐次方程,怎么快速地写出解呢?由线性方程组解的理论可以知道,非齐次方程的解由两部分组成,一部分是对应齐次方程的解,另一部分就是非齐次方程的一个特解。这个特解其实也很好求的,我们用例子来说明。

例2:求解线性方程组 \(A\vec{x}=\vec{b}\),其中
\[A=
\begin{pmatrix}
1& 1& 2& 3\\
2& 0& 0& 2\\
3 &2& 4& 7
\end{pmatrix}\quad
\vec{b}=
\begin{pmatrix}
1\\
4\\
4
\end{pmatrix}
\]

解:利用初等行变换,将系数矩阵化成行最简矩阵:

\[
A=
\begin{pmatrix}
1& 1& 2& 3 &\vdots& 1\\
2& 0& 0& 2&\vdots& 4\\
3 &2& 4& 7 &\vdots& 4
\end{pmatrix}
\sim
\begin{pmatrix}
1& 0& 0&1 &\vdots&2\\
0& 1& 2& 2&\vdots& -1\\
0 &0& 0& 0&\vdots& 0
\end{pmatrix}
\]
我们知道,非齐次方程的通解是对应齐次方程的通解加上非齐次方程的一个特解。齐次方程的解,我们只要不看上式里最后一列,就跟前面的例子一样。所以对应齐次方程的通解是
\[\vec{x}=x_3
\begin{pmatrix}
0\\
-2\\
1\\
0
\end{pmatrix}+x_4
\begin{pmatrix}
-1\\
-2\\
0\\
1
\end{pmatrix}
\]

那么,非齐次方程的特解怎么得到呢?很简单,我们只要令自由元的值都为\(0\), 而非自由元的值就是对应的最后一列的值。所以,非齐次方程的一个特解就是
\[\vec{\eta}=\begin{pmatrix}
2\\
-1\\
0\\
0
\end{pmatrix}\]

所以,非齐次方程的通解是
\[
\vec{\xi}=\vec{x}+\vec{\eta}=x_3
\begin{pmatrix}
0\\
-2\\
1\\
0
\end{pmatrix}+x_4
\begin{pmatrix}
-1\\
-2\\
0\\
1
\end{pmatrix}+
\begin{pmatrix}
2\\
-1\\
0\\
0
\end{pmatrix}
\]

Posted on Leave a comment

初等变换(Row reduction , elementary operation)技巧总结

总有同学问,初等变换有什么技巧吗?其实,初等变换已经是线性代数里最简单有效的技巧了,当然,它本身还是有一点点技巧的,应用这些技巧,可以让你的初等变换变得容易那么一点点。

初等变换的技巧并不多,总结起来,就这么三条:

  1. 逐列进行。如果是要化成三角形,第一步,将第一列除第一个元素外,全部化成0;接着,将第二列的第二个元素下方的全部化成 0 ;依此下去,直到最后一列。如果是化成行阶梯形,也是先从第一列开始,将第一个元素的下方全部化成 0 ;然后第二列,第三列等等。 如果是要化成行最简,那么化成阶梯形后,再从最后一个阶梯开始,将每个阶梯的第一个非 0 元的上方化成,依次往前进行。
  2. 找最简单的数字。每次化简前,将最简单的数字所在的行交换到基础行。所谓基础行(这是我给的定义,呵呵),对于三角形来说,就是主对角线元素所在的行,例如,现在要化简第三列,那么第三行就是基础行,因为我们要将第三行第三列元素的下方都化成 0 。如果是要化成阶梯形,那么基础行就是已经化完了的行的下一行。
  3. 耐心。不要着急,因为初等变换要做很多数字的四则运算,很容易出错,也很容易让人厌倦,所以这时候耐心很重要。耐心才不容易出错。

现在我们来看一个例子,说明一下怎么用这两个原则,逐列进行与找最简单的数字。

例 1:将矩阵化成行最简矩阵
\[\begin{pmatrix}
2&3&1&-3&-7\\
1&2&0&-2&-4\\
3&-2&8&3&0\\
2&-3&7&4&3
\end{pmatrix}\]

解:我们来看,这个矩阵怎么运用前面所说的两个法则。逐列进行,那么就是从第一列开始,将第一个元素的下方全部变成 0 。然后再第二列,第三列等等。来看第一列,第一列里最简单的数字是 1 ,所以将 1 所在的行交换到第一行(基础行),我们得到
\[\begin{pmatrix}
2&3&1&-3&-7\\
1&2&0&-2&-4\\
3&-2&8&3&0\\
2&-3&7&4&3
\end{pmatrix}\sim
\begin{pmatrix}
1&2&0&-2&-4\\
2&3&1&-3&-7\\
3&-2&8&3&0\\
2&-3&7&4&3
\end{pmatrix}\]

然后,将下方的数字全部变成 0 ,那么将第一行乘以 -2 加到第二行,乘以 -3 加到第三行,乘以 -2 加到第四行,得到
\[
\begin{pmatrix}
1&2&0&-2&-4\\
2&3&1&-3&-7\\
3&-2&8&3&0\\
2&-3&7&4&3
\end{pmatrix}\sim
\begin{pmatrix}
1&2&0&-2&-4\\
0&-1&1&1&1\\
0&-8&8&9&12\\
0&-7&7&8&11
\end{pmatrix}
\]

现在第一列化完了,该化第二列了。我们看到,第二列里,最简单的是 -1,它就在第二行里,就不用交换了。现在将第二行乘以 -8 加到第三行,乘以 -7 加到第四行,得到

\[\begin{pmatrix}
1&2&0&-2&-4\\
0&-1&1&1&1\\
0&-8&8&9&12\\
0&-7&7&8&11
\end{pmatrix}\sim
\begin{pmatrix}
1&2&0&-2&-4\\
0&-1&1&1&1\\
0&0&0&1&4\\
0&0&0&1&4
\end{pmatrix}
\]

现在该第三列了。但是因为第三列里,第三个元素之后都是 0 ,所以从阶梯形的定义,我们不需要对它进行运算。阶梯形里,第三个阶梯的第一个非 0 元在第四列,所以下一个是第四列,第四列里,第三个元素是 1 ,所以也不用交换行了,将第三行乘以 -1 加到第四行,就得到了
\[\begin{pmatrix}
1&2&0&-2&-4\\
0&-1&1&1&1\\
0&0&0&1&4\\
0&0&0&1&4
\end{pmatrix}\sim
\begin{pmatrix}
1&2&0&-2&-4\\
0&-1&1&1&1\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\]

现在已经是行阶梯形了,如果要化成行最简,那么每一个阶梯的第一个非 0 元的上方也应该化成 0 。这个时候,就是从最后一个阶梯开始。我们看,最后一个阶梯的第一个非 0 元在第四列,第三行。所以,将第三行乘以 -1 加到第二行,乘以 2 加到第一行,我们得到了
\[\begin{pmatrix}
1&2&0&-2&-4\\
0&-1&1&1&1\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}\sim
\begin{pmatrix}
1&2&0&0&4\\
0&-1&1&0&-3\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\]

同理,将第二行乘以 2 加到第一行,得到了
\[\begin{pmatrix}
1&2&0&0&4\\
0&-1&1&0&-3\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}\sim
\begin{pmatrix}
1&0&2&0&-2\\
0&-1&1&0&-3\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\]

最后,将每一个阶梯的第一个非 0 元化成 1 。为此,只需要将第二行乘以 -1 ,我们的工作就完成了。
\[\begin{pmatrix}
1&0&2&0&-2\\
0&-1&1&0&-3\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\sim\begin{pmatrix}
1&0&2&0&-2\\
0&1&-1&0&3\\
0&0&0&1&4\\
0&0&0&0&0
\end{pmatrix}
\]