最近讀到一篇深入討論 Multi-agent(多代理人系統) 設計的文章,觀點極其犀利,打破了目前許多開發者對於 AI 協作的直覺想像。文章的核心警告非常直接:千萬別把你的人力資源組織圖,直接複製給 AI Agent!
在企業數位轉型的過程中,很多團隊規劃 AI 工作流時,習慣將人類的「分工思維」套用在 AI 上(例如:PM → 架構師 → 開發 → 測試)。這張圖畫在投影片上非常美觀、易於向管理層解釋,但在實際工程實作中,這往往是一個高成本的陷阱。以下是我針對文章核心洞見整理的深度分析與感想:
一、直覺但「錯位」的設計:AI 的限制與人類不同
人類需要細緻的分工(Specialization),是因為我們的注意力有限,且切換專業領域的「轉場成本」極高。但對於 LLM(大型語言模型) 來說,運作邏輯完全不同:
- 沒有固定的職能邊界: 同一個基礎模型(如 GPT-4 或 Claude 3.5)本質上就具備處理多種任務的能力,強行區分角色有時是多此一舉。
- 瓶頸在於推理與脈絡: 限制 AI 表現的通常是 Context Window(上下文窗口) 的有效利用與推理路徑的深度,而非「角色標籤」不夠精確。
- 自我限制的風險: 當你過度定義 Agent 為「我是 QA」時,它可能會產生行為偏誤,變得過於保守,甚至為了符合角色設定而限縮了思考的廣度。
二、資訊在「交接」中被破壞:局部正確導致的全局錯誤
這是我最有感觸的一點。文章指出流水線式(Pipeline)架構最大的問題在於:資訊熵的流失。
在人類組織中,我們靠著「開會」、「企業文化」或「默契」來補償溝通過程中的資訊落差。但 AI Agent 之間並沒有這些「隱性協議」:
- 推理過程的丟失: 每次任務從 Agent A 交接到 Agent B,往往只留下「壓縮後的結論」,而珍貴的推理邏輯、邊界案例的考量都在交接中消失了。
- 誤差累積: 這種層層傳遞會產生「傳聲筒效應」,導致每個節點看起來都正確,但最終結果卻發生了嚴重的全局偏差。
三、借鏡大廠實踐:從「接力賽」轉向「外部狀態統整」
觀察 Anthropic、OpenAI 與 Google 的頂尖工程實踐,可以發現他們不約而同地捨棄了「三省六部制」的複雜分工,轉向以下模式:
- 持久化記憶(Persistent State): 利用 Spec 或 Runbook 讓 Agent 共享同一個「狀態中心」,確保記憶不會因為任務切換而中斷。
- Orchestrator(協調者模式): 由一個核心主體負責整合所有資訊流,而非讓 Agent 像接力賽一樣盲目傳遞。
- 並行搜尋(Parallel Exploration): 多個子 Agent 的意義不在於「分職能」,而是在於「同時撒網」。它們探索不同的解決路徑,最後回流給主體進行整合。
結語:從組織分工走向「擴展思考」
這篇文章其實是在提醒我們:真正有效的 AI 系統,長得往往不像人類組織。
比起模擬一個層級森嚴的公司,我們更應該把 AI Agent 視為一個「擴展思考的生命體」
- 主體的多線思考: 讓 AI 同時考慮多個維度。
- 自我批判的推理機器: 透過持續修正草稿與自我覆核提升品質。
- 持續累積的數位資產: 讓 AI 在工作流中不斷沉澱經驗與記憶。
設計 AI 的過程,其實是迫使我們重新思考管理的本質。AI 測試的不再只是你的 Prompt 技巧,而是你對工作流、資訊透明度以及目標對齊(Alignment)的理解深度。
















