「線性映射(Linear Map)」是理解張量、矩陣、AI 的核心概念之一。我們用最直覺+數學本質一起講清楚👇
一、最簡單一句話
👉 線性映射 = 保持「加法」與「比例」的變換二、形式定義(抓住兩個條件)
一個映射 fff 是線性的,如果滿足:
1️⃣ 加法保持
f(x+y)=f(x)+f(y)
2️⃣ 倍數保持
f(cx)=cf(x)
👉 這兩個條件合起來就是:
👉 不改變線性結構
三、最直覺例子
🔹 例子1:乘以2(線性映射)
f(x)=2x
- f(x+y)=2(x+y)=2x+2y
- f(cx)=2cx=c(2x)
👉 ✅ 是線性映射
🔹 例子2:加1(非線性映射)
f(x)=x+1
檢查:
- f(x+y)=x+y+1
- f(x)+f(y)=x+1+y+1=x+y+2
👉 ❌ 不一樣 → 不是線性
👉 關鍵:
👉 不能有「常數偏移」
四、幾何直覺(很重要🔥)
線性映射在空間中做的事:
👉 只允許:
- 拉伸(stretch)
- 壓縮(shrink)
- 旋轉(rotate)
- 反射(flip)
👉 不允許:
- 平移(shift)
👉 所以:
👉 原點一定固定在原點
五、矩陣就是線性映射
任何線性映射都可以寫成:
f(x)=Ax
👉 這裡:
- A:矩陣
- x:向量
👉 例子:
A=[2003]A = \begin{bmatrix} 2 & 0 \\ 0 & 3 \end{bmatrix}A=[2003]
作用在:
x=[1,1]
得到:
f(x)=[2,3]
👉 意義:
- x方向放大2倍
- y方向放大3倍
六、為什麼這麼重要?
因為:
👉 幾乎所有科學與AI都建立在線性映射上
在物理(如 廣義相對論)
- 張量 = 多重線性映射
在AI(如 PyTorch)
神經網路每一層:
y=Wx+b
👉 其中:
- Wx:線性映射
- b:非線性偏移
- activation:非線性
👉 本質:
👉 AI = 線性 + 非線性 的疊加
七、更高一層(連到張量)
👉 張量其實是:
👉 多輸入的線性映射(multilinear map)
例如:
- 向量 → 向量(矩陣)
- 向量×向量 → 純量(內積)
👉 所以:
👉 線性映射 = 張量的基礎
八、一句話總結(最精華)
👉 線性映射就是「不改變比例與結構」的變換,本質上就是矩陣作用在向量上

















