每次追 AI 工具的新聞,Multi-Agent 這個詞越來越常出現。但大多數的解釋不是太學術,就是一堆英文術語拼在一起,讀完還是不知道它在解決什麼問題。
這篇文章用一篇文帶你簡單理解:什麼是 AI agent、為什麼要用多個、LangGraph 框架又是什麼東西,以及什麼時候你才真的需要它。
我自己有一套用來自動化內容製作的 multi-agent 系統,整個流程從語音稿到排版上傳全部自動跑,那套系統就是典型的 Multi-agent 架構,文章裡會稍微帶到。
截至本文撰寫時(2026 年 4 月),LangGraph 1.0 已在 2025 年 10 月正式發布,是 Python 生態裡最主流的多agent框架之一。
什麼是「AI agent」?

AI agent決策迴圈示意
Agent 這個詞聽起來很玄,但概念其實很直觀:它就是一個能自己決定下一步要做什麼的 AI。
一般的 AI 用法是你問問題、AI 回答、結束。這是單次問答,AI 本身不會主動採取任何行動。
Agent 不一樣。它有一個決策迴圈:收到任務、思考需要什麼工具、呼叫工具(搜尋、執行程式碼、讀取資料)、看結果、再決定下一步,直到任務完成。
舉個例子:你叫一個 agent「查一下今天比特幣價格,然後換算成台幣告訴我」。它會先呼叫搜尋工具查價格,再呼叫匯率 API 換算,最後整理成一句話給你。整個過程你不需要你告訴它,它會自己跑完。
最簡單的開始方法就是現在最流行的 Claude,還不知道 Claude 是什麼的可以先看 Claude 完整指南 這篇文章,Claude 本身就是一個很好的 Agent 起點。
為什麼需要多個 Agent 協作?

單一 LLM 與多agent分工對比
一個 agent 實際上會碰到幾個限制:
- Context window 有上限。 一個 AI 每次能處理的文字量是有限的。如果你把所有資訊、所有工具說明、所有任務背景全部塞進同一個 prompt,剩下讓它「思考」的空間就更少了,回答品質自然下降。
- 一個人很難什麼都精通。 你不會讓同一個人同時負責前端、後端、DevOps 和法律審查,AI 也是一樣。一個專門負責「搜尋最新論文」的 agent 和一個專門負責「把論文內容改寫成社群貼文」的 agent,用完全不同的 prompt 設定,效果會比兩件事都交給同一個通用 agent 好很多。
- 任務可以平行跑。 多個 agent 可以同時工作,不用等一個做完才開始另一個。
Multi-Agent 架構的常見模式

Supervisor-Worker 多agent架構模式示意
LangGraph Multi-Agent 系統怎麼運作,有幾種常見的模式。
- Supervisor-Worker(主管加工人)是最普遍的一種。有一個「主管 agent」負責理解任務、決定交給哪個「工人 agent」、收集結果、再決定下一步。工人 agents 各有專職,不需要知道整體目標,只負責完成被交辦的任務:主管分派,工人執行,主管驗收。
- 階層式(Hierarchical)是 Supervisor-Worker 的延伸。主管底下有幾個「組長 agent」,每個組長底下再有幾個工人。適合系統規模很大、工作需要二層以上分工的情況。
- 平等協作(Peer-to-peer)是各個 agent 地位相等,可以互相溝通。適合需要多方討論或共識決策的場景,但協調起來比較複雜。
對大多數應用來說,Supervisor-Worker 是最好上手也最容易維護的選擇。
LangGraph 是什麼:State、Node、Edge 概念

LangGraph StateGraph 核心概念:State、Node、Edge
LangGraph 是 LangChain 推出的框架,專門用來建構上面這類多 agent 系統。它把整個工作流程表達成一張有向圖,讓你明確定義每個 agent 做什麼、任務怎麼在它們之間流動。
理解 LangGraph 三個概念:
State(狀態)是整個系統的共享記憶體。所有 agent 都從這裡讀資料、把結果寫回來。你可以把它想成一張所有人都能看到、也都能在上面寫字的白板。用 Python 的 TypedDict 定義,你的 State 長什麼樣,系統的記憶就有多少。
Node(節點)是每個 agent 的工作單元。每個 node 是一個 Python function,接收當前的 State,執行它的任務,再回傳更新後的 State。Node 只負責自己的事,不需要知道前面或後面是誰。
Edge(邊)定義任務怎麼流動。最簡單的 edge 是固定的:A 做完就到 B。進階一點是「條件 edge」:根據 State 的內容決定下一步去 B 還是 C,或者重新回到 A 再跑一次。這個機制讓 LangGraph 能做到「如果驗證失敗就退回重做」,是它比簡單的線性流程強得多的地方。
用 LangGraph 建一個最小系統

LangGraph 兩個 node 的最小系統流程圖
先安裝:
pip install langgraph langchain-anthropic
一個最精簡的 LangGraph 系統長這樣:
from langgraph.graph import StateGraph, END
from typing import TypedDict
# 1. 定義 State
class MyState(TypedDict):
user_input: str
result: str
# 2. 定義 Node(工作單元)
def process_node(state: MyState) -> dict:
processed = f"已處理:{state['user_input']}"
return {"result": processed}
def review_node(state: MyState) -> dict:
reviewed = f"已審核:{state['result']}"
return {"result": reviewed}
# 3. 組裝
graph = StateGraph(MyState)
graph.add_node("process", process_node)
graph.add_node("review", review_node)
graph.add_edge("process", "review")
graph.add_edge("review", END)
graph.set_entry_point("process")
app = graph.compile()
# 4. 執行
output = app.invoke({"user_input": "測試一下", "result": ""})
print(output["result"]) # 已審核:已處理:測試一下
這個例子有兩個 node:process 先處理輸入,review 再審核結果,最後結束。State 就是帶著 user_input 和 result 的字典,兩個 node 共用它。
真實的系統會在 node 裡面呼叫 LLM、加入條件 edge 決定要不要重試、或者加入人工確認步驟。但骨架跟上面一樣,就是 State → Nodes → Edges。
其他框架比較

LangGraph vs CrewAI vs AutoGen vs Claude SDK 框架比較
除了 LangGraph,常見的選項還有 CrewAI、AutoGen 和 Anthropic 的 Claude Agent SDK。
CrewAI 上手最快,適合快速做 prototype 或五個 agent 以內的小系統。它用「角色」的概念組織 agent:每個 agent 有名字、目標、背景故事,讀起來很直觀。缺點是擴充性有限,超過一定規模就難以維護,自訂流程控制也比 LangGraph 弱很多。適合想快速建立 multi-agent 的人。→ CrewAI 文件
AutoGen(Microsoft) 適合「多方討論」的場景,agent 之間用對話形式互動,像在模擬一場會議。適合需要多輪 AI 辯論或協作撰寫的場景。但每多一個 agent 就多一倍的 LLM 呼叫,成本和速度都不理想;流程控制也比 LangGraph 難以預測。→ AutoGen GitHub
Claude Agent SDK 是 Anthropic 在 2025 年 9 月推出的,跟 Claude 模型整合最緊密,適合純 Claude 技術棧、工具導向的場景。它的設計重點是讓 Claude 直接使用工具(檔案讀寫、執行命令、呼叫 API),比較像是一個 Claude-native 的 agent 執行環境,而不是一個通用 multi-agent 框架。不支援跨模型,也沒有 LangGraph 那樣細緻的流程控制。
LangGraph 是這四個裡面學習曲線最陡、但彈性最高的。它在生產環境的設計重點是 checkpointing(中途存檔、斷點繼續)、time-travel debugging(回放任何時間點的狀態)和人工審核節點,這些對真正要上線的系統來說很實用。→ LangGraph GitHub
最簡單的選法是先試 CrewAI,等你覺得架構變複雜了,再換 LangGraph 也可以。
常見問題
Multi-agent 系統一定要用框架嗎?
不一定。用純 Python 自己寫 agent 迴圈完全可行,特別是簡單的系統。框架的好處是省掉重複造輪子的時間,以及提供狀態管理、錯誤處理、logging 這類基礎設施。
LangGraph 一定要搭配 LangChain 嗎?
不一定。LangGraph 可以獨立使用,你可以在 node 裡直接呼叫 Anthropic SDK 或 OpenAI SDK,不需要用 LangChain 的其他元件。
Multi-agent 系統比單一 LLM 一定比較好嗎?
不一定。多 agent 增加了系統複雜度和 LLM 呼叫次數(也就是費用)。如果你的任務用一個好的 prompt 就能解決,不需要用 agent。Multi-agent 的價值在於任務複雜、需要專門分工、或需要明確工作流程的情況。
LangGraph 支援 Claude 嗎?
支援。用 langchain-anthropic 套件就可以在 node 裡呼叫 Claude 模型,和使用 OpenAI 一樣簡單。
總結
LangGraph 多agent架構的核心概念很直觀:把一個複雜任務拆給多個各有專長的 AI 去分工,用一個協調機制(通常是主管 agent)讓整個流程跑起來。
LangGraph 提供了一個結構化的方式來表達這種工作流程,用 State 管理共享記憶、用 Node 定義每個 agent 的工作、用 Edge 決定任務怎麼流動。你可以直接複製我上面那兩個 node 的例子,加上你自己的 LLM 呼叫和工具試試看。






