news 2026/2/11 2:29:48

矩阵乘向量的本质:基底变换与线性组合

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
矩阵乘向量的本质:基底变换与线性组合

矩阵乘向量的本质:基底变换与线性组合

在二维平面上,一个点的坐标是 $ (3, 5) $。这看起来再普通不过——但你有没有想过,这个“3”和“5”到底意味着什么?它们之所以成立,是因为我们默认使用了一组特定的方向作为参照:向右的 $ \mathbf{e}_1 = [1, 0]^T $ 和向上的 $ \mathbf{e}_2 = [0, 1]^T $。于是 $ (3,5) $ 实际上是 $ 3\mathbf{e}_1 + 5\mathbf{e}_2 $。

但如果我把这两个方向换成别的呢?比如把“右”变成东北方向,把“上”变成西南方向?同样的系数 $ (3,5) $ 所指向的空间位置就会完全不同。

这正是矩阵乘以向量的核心所在:它不是在改变数字本身,而是在重新定义这些数字所依赖的基础结构——即基底。当你写下 $ A\mathbf{x} $ 的那一刻,你其实是在说:“请用我提供的新方向(矩阵的列),按照原向量的权重($ \mathbf{x} $ 的分量)来构造一个新的点。”


从行到列:两种视角,一种本质

我们通常学习矩阵乘法是从“行”的角度开始的。给定:

$$
A =
\begin{bmatrix}
a_{11} & a_{12} \
a_{21} & a_{22}
\end{bmatrix}, \quad
\mathbf{x} =
\begin{bmatrix}
x_1 \ x_2
\end{bmatrix}
$$

结果 $ A\mathbf{x} $ 的第一个分量是第一行与 $ \mathbf{x} $ 的点积:$ a_{11}x_1 + a_{12}x_2 $,第二个分量同理。这种计算方式清晰、可编程、易于实现。

但它的几何意义却不够直观。点积告诉我们的是投影关系,而不是空间中的实际移动路径。真正揭示本质的,是从列的角度来看待这个运算

将矩阵 $ A $ 拆分为两列:
$$
\mathbf{a}1 =
\begin{bmatrix}
a
{11} \ a_{21}
\end{bmatrix}, \quad
\mathbf{a}2 =
\begin{bmatrix}
a
{12} \ a_{22}
\end{bmatrix}
$$

那么就有:
$$
A\mathbf{x} = x_1 \mathbf{a}_1 + x_2 \mathbf{a}_2
$$

看!这不是什么神秘操作,而是最典型的线性组合。输入向量 $ \mathbf{x} $ 提供了权重,矩阵 $ A $ 提供了被加权的基本构件。

举个例子:
$$
A =
\begin{bmatrix}
2 & -1 \
1 & 3
\end{bmatrix}, \quad
\mathbf{x} =
\begin{bmatrix}
3 \ 5
\end{bmatrix}
\quad \Rightarrow \quad
A\mathbf{x} = 3 \cdot
\begin{bmatrix}
2 \ 1
\end{bmatrix}
+ 5 \cdot
\begin{bmatrix}
-1 \ 3
\end{bmatrix}
=
\begin{bmatrix}
1 \ 18
\end{bmatrix}
$$

输出向量 $ [1, 18]^T $ 就位于由 $ \mathbf{a}_1 $ 和 $ \mathbf{a}_2 $ 张成的平面内——事实上,它是这对向量的一个具体实例化表达。

换句话说,矩阵 $ A $ 定义了一个“生成模板”,而 $ \mathbf{x} $ 决定了在这个模板中选择哪一个具体的输出


基底变了,世界就变了

现在让我们更进一步:考虑标准基下的向量 $ \mathbf{x} = [x_1, x_2]^T $。它本质上就是:

$$
\mathbf{x} = x_1
\begin{bmatrix}
1 \ 0
\end{bmatrix}
+ x_2
\begin{bmatrix}
0 \ 1
\end{bmatrix}
= x_1 \mathbf{e}_1 + x_2 \mathbf{e}_2
$$

如果我们保留相同的系数 $ x_1, x_2 $,但把基换成了 $ \mathbf{a}_1, \mathbf{a}_2 $,那会发生什么?

答案就是:
$$
\mathbf{y} = x_1 \mathbf{a}_1 + x_2 \mathbf{a}_2 = A\mathbf{x}
$$

所以,矩阵乘法 $ A\mathbf{x} $ 可以理解为:保持坐标数值不变,但将其解释为一组新基下的线性组合

这就像你在地图上看经纬度 $ (40^\circ N, 116^\circ E) $,如果地球的坐标系突然旋转了,虽然数字没变,但对应的实际地点已经完全不同。矩阵的作用,就是悄悄地替换了整个坐标系统的“朝向”。

因此,矩阵 $ A $ 的每一列,实际上记录了原始基向量变换后的位置:
- 第一列是 $ \mathbf{e}_1 $ 被送到哪里;
- 第二列是 $ \mathbf{e}_2 $ 被送到哪里。

整个变换规则由此完全确定。


具体案例:缩放与旋转

来看看几个经典例子。

缩放变换

$$
A =
\begin{bmatrix}
2 & 0 \
0 & 3
\end{bmatrix}
$$

这意味着:
- $ \mathbf{e}_1 \to (2, 0) $
- $ \mathbf{e}_2 \to (0, 3) $

整个空间被横向拉长2倍,纵向拉伸3倍。所有点都按比例远离原点,但方向关系保持不变。

旋转变换

$$
A =
\begin{bmatrix}
0 & -1 \
1 & 0
\end{bmatrix}
$$

这时:
- $ \mathbf{e}_1 \to (0,1) $
- $ \mathbf{e}_2 \to (-1,0) $

也就是原来的“右”变成了“上”,“上”变成了“左”。这是典型的逆时针90度旋转。

你会发现,无论哪种变换,矩阵的列都在明确告诉你:“旧世界的每个基本方向,现在去了哪里。”


推广到三维:逻辑一致,直觉延续

设:
$$
A =
\begin{bmatrix}
1 & 0 & 0 \
0 & 2 & 1 \
0 & 0 & 1
\end{bmatrix}, \quad
\mathbf{x} =
\begin{bmatrix}
2 \ 3 \ 4
\end{bmatrix}
$$

则:
$$
A\mathbf{x} = 2 \cdot
\begin{bmatrix}
1 \ 0 \ 0
\end{bmatrix}
+ 3 \cdot
\begin{bmatrix}
0 \ 2 \ 0
\end{bmatrix}
+ 4 \cdot
\begin{bmatrix}
0 \ 1 \ 1
\end{bmatrix}
=
\begin{bmatrix}
2 \ 10 \ 4
\end{bmatrix}
$$

这里的三列分别代表标准基 $ \mathbf{e}_1, \mathbf{e}_2, \mathbf{e}_3 $ 经过变换后的新位置。原来的立方体网格可能会扭曲成平行六面体,但线性结构依然保持。

关键在于:无论维度如何变化,矩阵乘向量的本质始终如一——它是对新基方向的一次加权合成


一般情形:$ m \times n $ 矩阵的映射能力

推广到最一般的情况:设 $ A \in \mathbb{R}^{m \times n} $,$ \mathbf{x} \in \mathbb{R}^n $,则:

$$
A\mathbf{x} = \sum_{i=1}^n x_i \mathbf{a}_i
$$

其中 $ \mathbf{a}_i \in \mathbb{R}^m $ 是 $ A $ 的第 $ i $ 列。

这意味着:
- 输入向量原本属于 $ n $ 维空间;
- 输出落在 $ m $ 维空间中;
- 变换过程是将原来基于 $ n $ 个 $ n $ 维标准基的表示,转换为基于 $ n $ 个 $ m $ 维“新方向”的相同系数组合。

这就解释了为什么矩阵乘法广泛存在于各种空间映射场景中:

  • 降维(如 PCA):当 $ m < n $,数据被压缩进低维空间;
  • 嵌入(如词向量):当 $ m > n $,信息被扩展到更高维表示;
  • 全连接层(神经网络):每一层都在重新定义特征空间的基方向;
  • 图像仿射变换:旋转、剪切、缩放均可通过矩阵乘法实现。

可以说,任何需要“重新组织信息结构”的任务,背后几乎都有矩阵乘法的身影


一个重要澄清:列不一定构成基底

我们必须指出一点:虽然我们将矩阵的列视为“新基”,但这并不总能满足数学上“基底”的严格定义。

所谓基底,必须满足两个条件:
1. 向量个数等于空间维数;
2. 向量线性无关。

而矩阵 $ A $ 的列可能不满足这些条件。例如:

情况是否构成基底说明
$ m = n $,列满秩✅ 是构成 $ \mathbb{R}^n $ 的一组新基
$ m = n $,行列式为0❌ 否列相关,无法张成全空间
$ m > n $❌ 否向量不足 $ m $ 个,不能构成 $ \mathbb{R}^m $ 的基
$ m < n $❌ 否即使独立,也无法张成 $ \mathbb{R}^m $

更准确的说法是:

矩阵 $ A $ 的列张成一个子空间——称为列空间(Column Space),而 $ A\mathbf{x} $ 的结果必然落在此空间之内。

即使这些列不能构成完整基底,它们仍然定义了一组“目标方向”。变换的结果,只能是这些方向的线性组合。

所以,把矩阵乘法看作“基变换的思想实验”,虽非严格成立,却是极富启发性的思维方式。它帮助我们建立起对线性映射的几何直觉。


总结:从机械计算到空间感知

当我们第一次接触 $ A\mathbf{x} $,往往只看到一堆数字的运算。但深入之后会发现,这背后是一场静默的空间重构。

你可以从两个等价又互补的视角去理解它:

  • 代数视角:它是矩阵各列的线性组合,权重来自输入向量;
  • 几何视角:它是将原向量的坐标解释为一组新基下的表达。

这两种理解方式相辅相成,共同构成了线性代数中最核心的思想之一。

未来你会在很多地方再次遇见它:
- 特征值分解中,我们寻找那些变换前后方向不变的特殊向量;
- SVD 中,我们分析矩阵如何拉伸和旋转空间;
- 在神经网络中,权重矩阵实际上是在不断学习最优的“特征基底”;
- 注意力机制中的 Query-Key-Mapping,本质上也是某种基变换的体现。

今天建立的直觉,或许不会立刻显现威力,但它会在你面对复杂模型时悄然浮现——让你一眼看出:“哦,原来这里又是一次基底的重新定义。”

这才是线性代数真正的力量:它不只是工具,更是看待世界的一种方式。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/8 16:45:52

解决双击AnacondaNavigator没有反应

在终端输入下面的命令&#xff1a;anaconda-navigator输出报错信息&#xff1a;接着输入&#xff1a;conda list backports输出&#xff1a;可以看到backports包有多个重名&#xff0c;由于Build目录下显示py_1为pip安装&#xff0c;其读取优先级高&#xff0c;所以猜测是使用了…

作者头像 李华
网站建设 2026/2/10 14:09:58

十分钟安装TensorFlow-GPU 2.6.0完整指南

TensorFlow-GPU 2.6.0 十分钟极速安装实战指南 在深度学习项目中&#xff0c;环境配置往往是第一道“劝退”门槛。尤其是面对历史版本的框架依赖——比如仍被大量课程和论文代码库锁定的 TensorFlow-GPU 2.6.0&#xff0c;稍有不慎就会陷入 CUDA not found、ImportError: nump…

作者头像 李华
网站建设 2026/2/8 2:24:02

Let’s Encrypt 正式支持IP证书,你的宝塔面板有小绿锁了吗?

过去&#xff0c;用IP地址直接访问服务器&#xff0c;总是带着“不安全”的警告。 不是没加密&#xff0c;而是浏览器不信任自签名证书。 想用正规HTTPS&#xff1f;要么买昂贵商业证书&#xff0c;要么必须绑定域名。 现在&#xff0c;这一切变了。 Let’s Encrypt 正式支持 I…

作者头像 李华
网站建设 2026/2/3 17:34:54

为什么你的Open-AutoGLM模型切换总失败?深度剖析底层机制

第一章&#xff1a;为什么你的Open-AutoGLM模型切换总失败&#xff1f;深度剖析底层机制在多任务推理场景中&#xff0c;频繁切换 Open-AutoGLM 模型看似简单&#xff0c;实则涉及复杂的上下文管理与权重加载机制。许多开发者遇到模型切换失败的问题&#xff0c;往往归因于配置…

作者头像 李华
网站建设 2026/2/7 21:57:03

segmentation_models.pytorch基础使用指南

segmentation_models.pytorch 实战指南&#xff1a;从环境到部署的全流程解析 在深度学习项目中&#xff0c;图像语义分割是计算机视觉的核心任务之一&#xff0c;广泛应用于医疗影像、自动驾驶和遥感分析等领域。面对复杂的模型结构与繁琐的训练流程&#xff0c;如何快速搭建…

作者头像 李华
网站建设 2026/2/6 1:56:50

智普Open-AutoGLM沉思,如何重构企业级AI自动化新范式?

第一章&#xff1a;智普Open-AutoGLM沉思 在人工智能与自动化深度融合的当下&#xff0c;智普推出的 Open-AutoGLM 项目为大语言模型的自主任务执行开辟了新路径。该项目结合 GLM 大模型的强大语义理解能力与自动化流程控制机制&#xff0c;使模型不仅能回答问题&#xff0c;更…

作者头像 李华