如果將 AI 伺服器比喻為一個超級大腦,這場金融與技術的演進,正經歷著從「大腦細胞(GPU)」到「大腦反應速度(HBM)」,最後延伸至「神經傳導(CPO)」的全面升級。這不只是技術參數的競爭,更是資本市場對未來十年算力成本的重新定價。
第一階段:GPU 核心的霸權——算力引擎的爆發
在過去兩年,市場資金瘋狂湧入 GPU。這時期看的是誰能設計出最強的運算核心,解決從無到有的算力焦慮。然而,當運算核心的效能達到極限時,投資者發現一個巨大的問題:如果數據運算得快,但搬運得慢,再強的 GPU 也是徒勞。這就進入了「記憶體牆」的挑戰。第二階段:HBM4 的垂直堆疊——打破數據存取的「記憶體牆」
當數據在處理器與傳統記憶體之間往返時,頻寬限制成了最大的絆腳石。HBM(高頻寬記憶體) 的出現,就是把記憶體直接「蓋在 GPU 旁邊」。
- HBM4 的意義:到了 2026 年,HBM4 不再只是單純的堆疊,它最大的變革是**「邏輯層的異質整合」**。以往 HBM 的底層是記憶體廠(美光、海力士)自己做,HBM4 則讓台積電直接介入,將底層邏輯晶片與 GPU 深度綁定。
- 金融視角:這讓記憶體從單純的「零組件」變成了「系統的一部分」。這解釋了為什麼 美光 (MU) 或 SK 海力士 的估值邏輯從循環股變成了成長股。因為在 HBM4 時代,沒有這些記憶體,AI 晶片根本無法運作。
第三階段:CPO 的光速傳輸——擊碎能耗與物理的「功耗牆」
當我們把資料塞進晶片的速度解決後,下一個大魔王是「晶片與晶片之間」的互聯。傳統的傳輸是靠銅線電訊號,但在 1.6T 甚至更高規格的時代,銅線太熱了,訊號衰減也太快。
這時,CPO(共同封裝光學) 登場了。
- 從「電」到「光」的質變:CPO 的核心邏輯是將原本放在外面的光纖收發器,直接縮小並搬進晶片封裝內部。這就像是把原本要轉乘多趟的公車,直接改成直達辦公室的電梯。
- 物理極限的解藥:CPO 解決了「熱」跟「電」的問題,讓 AI 叢集可以無限擴張。
資本市場的連鎖反應:從 GPU 到 CPO 的價值轉移
這是一場**「由內而外」**的利潤轉移過程:
- NVIDIA (NVDA) 依然掌握著大腦的定義權,但隨著 HBM4 的標準化與 CPO 的技術門檻提升,利潤開始向具備整合能力的廠商擴散。
- 博通 (AVGO) 成為這一階段的最大贏家,因為它不只懂網路晶片,它還掌握了把「光學引擎」封裝進去的關鍵專利與技術。
- 封測設備商 則成為影子贏家。因為無論是 HBM4 的堆疊還是 CPO 的封裝,對製程精度的要求都達到了前所未有的高度。
總結來說,如果說 GPU 決定了 AI 的上限,那麼 HBM4 決定了它的下限(不能慢),而 CPO 則決定了它的規模(能連多少台)。當前美股市場對 CPO 的熱度,反映的是投資者意識到:如果通訊問題不解決,AI 的天花板就到此為止了。這也是為什麼掌握這項「通訊神經」的公司,正在經歷估值的二次噴發。





















