剛聽完李宏毅老師的龍蝦課大概1小時,自己亂想了一些東西,丟給AI整理吧。
一開始文章寫得太難,降低到高中生程度可能好點:
要理解 OpenClaw 這種人工智慧助理的運作架構,首先必須了解一個核心概念:Token。在大型語言模型的運作中,Token 就像是 AI 的腦容量,也是計算金錢的單位。當你輸入一段文字、提供一份資料夾,或是要求 AI 執行某個動作時,這些資訊都會轉換成 Token 塞進 AI 的腦袋裡。輸入的 Token 越多,運算成本就越高,而且當資訊量超過 AI 短期記憶的負荷時,它就會開始忘東忘西,這在技術上稱為上下文溢出。
為了讓 OpenClaw 能夠幫忙處理各種複雜的專案,開發者通常會給它配備非常多種工具,例如操作螢幕的工具、讀寫本地端檔案的工具、搜尋網路資料庫的工具,以及各種不同功能的軟體操作權限。同時,為了讓 AI 記住使用者的習慣,系統還會載入大量的歷史對話紀錄。如果採用傳統的單一思維,每次使用者下達一個簡單的指令,系統就會把這幾十種工具的使用說明書,連同過去幾個月的記憶日誌,全部一股腦地塞給 AI。這就像是一個高中生明明只是要解一題簡單的一元一次方程式,你卻逼他在桌上擺滿微積分課本、英文字典、歷史講義以及全套木工工具箱。這不僅浪費桌面空間,也就是浪費大量的 Token 與金錢,更會讓解題的效率大幅下降,甚至因為看錯課本而給出錯誤的答案。
為了解決這個嚴重的浪費問題,OpenClaw 的架構必須進行深度的改造,其核心策略就是實施動態路由與精準的資源分配。整個優化過程可以拆解為四個主要階段。
第一階段是建立任務複雜度評估機制。這可以想像成學校裡的分組報告制度。當系統接收到一個新任務時,最前端會有一個極度輕量、不需要消耗太多運算資源的守門員程式,專門負責判斷這個任務的難度。如果任務很簡單,例如只是要求讀取桌面上的一個文字檔並整理出重點,守門員就會判定這是一個單人任務,直接派發給一個單一的 AI 核心來完成。這種模式稱為單體架構,好處是不用浪費時間與其他 AI 溝通,直接了當。但如果任務非常複雜,例如要求 AI 先去分析學校資料庫裡的歷年成績單,找出最弱的科目,接著上網搜尋該科目的模擬試題,最後把試題排版存成一份新的檔案。面對這種跨領域的多重步驟任務,守門員就會切換到多智能體架構,也就是組成一個小組來分工合作。
第二階段是工具的動態載入。這個概念等同於考生的鉛筆盒管理。既然我們知道 AI 的腦容量有限,就絕對不能每次都把所有的工具說明書塞給它。系統會將所有工具的功能描述轉換成數學向量,儲存起來。當任務確定後,系統會透過語意比對,只精準挑選出當下最需要的三到五個工具。舉例來說,當任務是上網找資料時,AI 的提示詞裡面就只會出現開啟瀏覽器和搜尋關鍵字這兩個工具的定義,完全不會出現與操作繪圖軟體或是修改本機預設密碼相關的資訊。透過這種嚴格的工具篩選機制,可以將每次輸入給 AI 的文字量壓縮到極致,不僅大幅降低了 Token 的消耗,也讓 AI 的注意力能夠高度集中在眼前的任務上,不會因為多餘的資訊而產生混亂。
第三階段是多智能體架構下的上下文隔離。在複雜專案啟動小組分工時,會有一個負責統籌的規劃者,將大任務拆解成五個小步驟,接著交給五個不同的執行者去完成。在這個過程中,最容易犯的錯誤就是讓所有參與的 AI 都看到完整的專案細節。這就像是在蓋一棟大樓時,負責砌磚的工人不需要知道整棟大樓的財務報表和電梯線路圖,他只需要知道眼前的牆要砌多高。因此,在 OpenClaw 的內部資料傳遞中,系統必須嚴格執行資訊不對稱。當第一個執行者負責去資料庫撈取成績時,它只會拿到撈取資料的工具和相關的帳號密碼,它甚至不知道這個專案最終的目的是要尋找模擬考題。每個節點的 AI 只處理自己份內的局部資訊,執行完畢後交出結果就功成身退。這種將資訊完美切割的作法,避免了多個 AI 在互相交接任務時,不斷重複傳遞龐大背景資料所造成的 Token 浪費,同時也極大化了除錯的效率。
第四階段是記憶系統的蒸餾與壓縮。AI 的記憶分為長期的熱記憶與每天產生的日常日誌。隨著使用時間的拉長,這些日誌檔案會變得非常巨大。如果每次對話都要回顧這些未經整理的流水帳,系統很快就會崩潰。為了解決這個問題,必須建立一套非同步的記憶減脂機制。就像是高中生每天都會在計算紙上寫下許多凌亂的解題過程,但到了週末,必須要把這些計算紙上的核心觀念和常犯錯誤,重新整理並濃縮到一本小巧的精華筆記本中,然後把原本的計算紙丟棄。OpenClaw 會在系統閒置或半夜的時間,自動啟動一個後台程式,將過去一週內所有零碎的暖記憶進行語意總結,去除掉重複的對話和無效的嘗試紀錄,只把使用者偏好改變或是專案的重大突破,更新到最核心的熱記憶檔案中。
綜合以上四個階段,從最前端的動態路由判斷、中段的工具精準派發與資訊隔離,再到後端的記憶定期壓縮。透過這種如同精密齒輪般咬合的系統架構,OpenClaw 就能夠在不犧牲強大自動化能力的前提下,將 Token 的消耗量降到最低。這不僅解決了運算成本過高的問題,更因為減少了無效資訊的干擾,讓 AI 在操作各項軟體與執行複雜邏輯時,展現出前所未有的精準度與穩定性。理解了這套邏輯,就能明白設計一個優秀的 AI 系統,重點往往不在於選用多麼昂貴的頂級模型,而在於如何透過架構設計,把好鋼用在刀刃上。





















