
如果你手上的是 ASUS ROG Flow Z13 2025,搭配 Ryzen AI Max+ 395 與 128GB LPDDR5X-8000 統一記憶體,那麼這台機器的特別之處,不只是「記憶體很多」,而是它本身就是一台為 本地生成式 AI 與 大型語言模型 預留空間的行動平台。AMD 官方明確指出,Ryzen AI Max+ 395 在 128GB 統一記憶體配置下,最高可提供大量記憶體空間給 GPU 端使用,並將這個平台定位為可執行 70B 級 LLM 的行動裝置;而 ASUS 的 Flow Z13 也採用了相同的統一記憶體設計。
也因為如此,這台機器在本地跑 LLM 時,真正要思考的問題往往不是「有沒有 128GB」,而是 這 128GB 要怎麼分。因為 Flow Z13 並不是傳統獨顯筆電,它沒有固定不變的獨立 VRAM,而是由 CPU 與 Radeon 8060S 共用同一池系統記憶體。ASUS 官方甚至直接提供了調整機制,讓使用者可以依需求決定要預留多少記憶體給 iGPU 使用。先理解一件事:你在調的不是「顯示卡容量」,而是工作模式
在 Flow Z13 上,ASUS 官方提供的調整方式很明確:你可以在 Armoury Crate → System Settings → Free up memory 中手動設定 iGPU 的記憶體配置。對 128GB 機型來說,可選值包含 0.5GB、1GB、2GB、4GB、8GB、16GB、32GB、64GB、96GB,另外也有 Auto 模式;其中預設值是 4GB。
這裡最重要的一點是:預設值 4GB 並不適合本地大型語言模型。 4GB 比較像一般日常、輕度圖形或基本系統用途下的出廠設定,並不是為 27B、32B 甚至 70B 級模型準備的配置。ASUS 官方也特別提醒,雖然 Auto 模式會自動分配記憶體,但某些應用可能無法正確辨識,仍然可能跳出「可用顯示記憶體不足」之類的錯誤,因此若你的目的是跑本地 LLM,手動固定值通常比 Auto 更穩定。
為什麼 27B 級模型會讓「記憶體分配」變成真正的重點?
如果你把本地 LLM 的需求聚焦到 27B 級 Dense 模型,事情就會變得很實際。以常見的 27B GGUF 量化版本來看,Q4_K_M 檔案大小大約是 17.13GB,Q6_K 約 23.08GB,而 Q8_0 則大約來到 28.67GB。這只是模型檔本體的體積,實際推理時還會加上 context、KV cache、runtime overhead,以及工具鏈本身吃掉的額外空間。
換句話說,雖然你看到的模型檔可能只有二十幾 GB,但在實際使用時,真正要給這個模型工作的空間並不只等於模型大小本身。這也是為什麼很多人看著 128GB 覺得「很大」,實際上卻仍然會遇到載入、切換模型、長上下文或多工時不夠穩定的情況。問題不在總容量,而在 你有沒有把足夠的記憶體預留給 GPU / LLM 端。
如果你的主力是 27B,本質上就是在 32GB、64GB、96GB 三種模式之間做選擇
我認為,對 128GB 的 Flow Z13 來說,最實用的配置其實可以分成三種。
第一種:32GB,偏效率導向的工作模式
如果你的主要用途是 27B Q4_K_M,而且你平常不只是跑模型,還會同時開很多 IDE、瀏覽器分頁、Office、Teams 或其他背景工具,那麼 32GB 會是一個很務實的起點。因為 32GB 足以應付 Q4 等級的 27B 模型,同時也能把更多空間留給 Windows 與其他工作流程。對於重視多工與日常使用感的人來說,32GB 的好處是整體系統更寬鬆。ASUS 官方支援這個設定值,而 27B Q4 級量化檔案也確實落在這個配置可嘗試的範圍內。
不過,32GB 的限制也很明顯:一旦你從 Q4 升到 Q6_K、Q8_0,或是把 context 拉長,32GB 很容易從「夠用」變成「偏緊」。如果你已經知道自己不只會跑單一模型,而是會來回切換、長時間互動,甚至跑 code assistant、agent 類工作流,那麼 32GB 很可能只是暫時的配置,而不是最後會留下來的主力模式。
第二種:64GB,最適合當主力配置的平衡點
如果你問我只能選一個最推薦的值,我會直接回答:64GB。
理由很簡單。對 27B Q4、Q6、Q8 這類本地模型來說,64GB 幾乎是最好的平衡點。它不像 32GB 那樣容易在長上下文、模型切換或多工時顯得吃緊,也不像 96GB 那樣過度壓縮 Windows 與其他應用的活動空間。你可以把 64GB 理解成一種「日常 AI 主力模式」:夠大,夠穩,也不至於讓整台電腦只剩下 AI 可以用。ASUS 官方提供 64GB 這個檔位,而 27B 級量化模型的大小區間,也很適合用 64GB 作為實戰上的主力配置。
如果你平常要做的是 本地 coding assistant、Copilot 類工作流、長時間聊天、模型切換、Ollama 或 LM Studio 的日常使用,那麼 64GB 幾乎是最不容易出錯的選擇。它不是極限配置,但非常像真正能天天用的配置。對多數人來說,這也是最接近「設完就不用一直改」的答案。
第三種:96GB,重度 AI 或大模型衝刺模式
那麼 96GB 呢?它有沒有必要?
有,但前提是你真的知道自己在做什麼。ASUS 官方在 128GB 機型上允許手動把 iGPU 記憶體拉到 96GB,而 AMD 官方也直接把 128GB 統一記憶體平台描述為能夠支援 70B 級 LLM 的裝置。這代表 96GB 並不是一個沒有用途的選項,它的存在就是為了更大模型、更長 context,或更重度的 AI 實驗而準備。
但同時也要誠實地說,96GB 不適合作為日常常駐值。因為當你把 96GB 長期預留給 GPU / LLM 端後,Windows 與其他應用可自由使用的空間就會明顯縮小。這樣的配置比較像「今天我要把這台機器當成 AI 專用盒來測大模型」,而不是「我今天要一邊工作、一邊開發、還順便跑幾個工具」。所以,96GB 的最佳角色不是預設值,而是 大模型衝刺模式。
如果你今天不想想太多,可以直接這樣分
如果你的目標很明確,就是想把這台 128GB 的 Flow Z13 變成一台 本地 LLM 主力機,那我會這樣建議:
平常工作、文書、多工、偶爾跑小模型時,使用 16GB 或 32GB。因為這樣能留給系統最多空間,整體操作體感最輕鬆,而 ASUS 官方也把這些值納入正式選項。
要進入 27B 級模型、程式碼助理、Agent 工作流、LM Studio 或 Ollama 的主要使用情境時,直接切到 64GB。這是最穩定、最實用,也最推薦作為主力模式的設定。
只有在你要挑戰 更大模型、70B 級量化、或更長上下文 時,再把它拉到 96GB。因為這時候你的目標已經不只是「日常使用」,而是「讓這台機器盡量接近 AI 專用平台」。
結論:對 128GB 的 Flow Z13 來說,最重要的不是容量,而是配置思維
很多人在看到 128GB 統一記憶體 時,第一個反應是「這樣應該什麼都能跑」。這句話其實只說對了一半。真正讓這台機器變強的,不只是它有 128GB,而是它允許你把這 128GB 依照工作型態重新分配。而本地 LLM,正是最能放大這種優勢的場景之一。ASUS 已經把這種調整能力做進官方工具中,AMD 也把 Ryzen AI Max+ 395 明確定位為可處理大型本地 AI 工作負載的平台。
如果你現在的重點是 27B 級本地模型,那麼最簡單也最實用的答案其實很清楚:
32GB 是效率模式,64GB 是主力模式,96GB 是衝刺模式。 你不需要把每一次設定都想得很複雜,只要先決定今天是要「工作」、要「穩定地跑 27B」,還是要「衝大模型」,接著切到對應模式就夠了。這也是 128GB Z13 與一般高階筆電最大的差異:它不是只有規格大,而是連使用策略本身都可以被你重新定義。













