
過去兩年,AI 產業幾乎都圍繞在 GPU 的重要性。無論是模型訓練還是推論部署,算力需求的快速成長,使 GPU 成為最關鍵且最稀缺的資源。在這樣的背景下,一個隱含的前提逐漸被默認,也就是只要擁有足夠的 GPU,整個系統的效能就能持續提升。然而,當資料中心開始大規模擴建、GPU 數量持續增加之後,實際運作中卻出現了一個不同於預期的現象:系統並不一定能有效地將這些 GPU 的能力完全發揮。
這個落差的來源,在於 AI 工作型態本身的改變。早期的 AI 應用,多半是單次請求的模式,使用者輸入問題,模型回傳答案,整個流程相對簡單且可預測。但隨著 agent 型應用逐漸出現,AI 開始從單一回應系統,轉變為持續運作的任務系統。這些系統會自動產生請求、串接不同工具、進行多步驟運算,並在長時間內持續執行任務。每一個使用者背後,不再只是一次查詢,而是一整段複雜且動態的 workflow,進而使系統內部的任務數量與複雜度同步放大。
在這樣的條件下,瓶頸的位置也隨之改變。過去限制 AI 發展的,是算力本身;但現在,越來越多問題出現在任務的排程與資源的協調上。換句話說,真正影響效率的,不再只是 GPU 能否完成計算,而是整個系統能否即時地將任務送進 GPU 並有效整合結果。若以更直觀的方式來理解,GPU 像是負責生產的工廠,而 CPU 則負責物流與調度;當任務規模與流程複雜度持續增加時,最容易成為瓶頸的,往往不是生產能力,而是物流系統本身。
這樣的變化,也開始反映在資料中心的設計上。傳統架構中,每 1GW 的資料中心大約需要三千萬個 CPU 核心,但隨著 agent 型 workload 的增加,這個數字可能提升至一點二億,接近四倍的成長。這並不是單純的性能優化,而是整個系統需求的重新定義。當任務變多、流程變長、系統變得更加動態時,CPU 不再只是輔助角色,而是影響整體效率的關鍵節點。
進一步來看,這個轉變其實揭示了一個更重要的事實。在 AI 資料中心中,最昂貴的資源仍然是 GPU,因此企業真正關心的問題,不是單一元件的性能,而是如何讓這些昂貴的運算資源維持高利用率。這使得 CPU 的評價標準發生改變,從過去強調單點性能,轉向強調整體系統效率。當一個 CPU 架構能夠有效提升 GPU 的利用率時,即使它在單一性能指標上並非最強,仍然可能在整體系統中創造更高價值。也正因如此,AI 基礎設施的競爭,開始從晶片之間的性能比較,逐漸轉向系統層級的設計能力。
在這樣的脈絡下,再回頭看 ARM 的策略,就會更容易理解。在上一篇文章中,我們提到 ARM 正在從 IP 授權走向晶片與系統層,這看似是一種商業模式的延伸,但從系統結構的角度來看,其實更像是對產業變化的回應。當 CPU 的重要性因為調度需求而上升,當資料中心開始受到功耗與效率限制,ARM 長期以來在低功耗設計上的優勢,便重新獲得意義。同時,隨著軟體環境逐漸標準化,ARM 在資料中心中的導入門檻也明顯降低,使其具備切入這一市場的條件。換句話說,ARM 的轉型並不只是主動擴張,而是恰好站在這一波結構轉變的交會點上。
整體來看,AI 基礎設施正逐步從單一模型導向持續運作的系統,從單一加速器導向多元協同運算,並從性能競爭轉向系統效率競爭。在這樣的過程中,CPU 的角色並不是單純地再次變得重要,而是被重新定義為影響整體運作效率的核心元件。
在技術發展的每一個階段,最受關注的往往是最耀眼的突破。在 AI 時代,這個角色無疑屬於 GPU。然而,當系統規模持續放大之後,真正決定效率的,往往是那些負責讓整個系統順暢運作的基礎結構。CPU,正是這個轉變中最關鍵、卻也最容易被忽略的存在。






















