你可能不知道,AI 跑得慢,問題出在「傳輸」不在「運算」
大家都在討論 GPU 要多強、模型要多大,但很少人注意到一件事:訓練一個大型 AI 模型,瓶頸往往不是算力本身,而是資料在晶片之間「跑來跑去」的速度。當頻寬不夠、延遲太高,再強的 GPU 也只是在空轉等待。這正是 CPO(Co-Packaged Optics,共封裝光學)登場的原因。
銅線的極限:一個機架裡藏著兩英里的銅
傳統資料中心裡,晶片之間的訊號靠銅線傳遞。這在過去夠用,但 AI 時代的頻寬需求每兩三年就翻倍,銅線的物理極限正在被逼近。速度越高、距離越長,訊號衰減就越嚴重,還得靠昂貴的訊號增強元件補救,能耗也跟著爆炸。
舊架構的路徑大概是這樣:晶片 → 電路板走線 → 光模組(轉成光訊號)→ 光纖。光電轉換發生在機架面板,距離晶片還有一段路。CPO 做的事,是把這段「最後一哩」的轉換點直接搬到晶片旁邊,讓光纖幾乎直接插到 GPU 或交換晶片上,省掉中間那段耗能的銅線傳輸。
CPO 帶來的改變有多大?
數字說話最直接。傳統 800G 光模組每個大約耗電 16–17 瓦,而 CPO 架構的光引擎每 800G 頻寬只需要約 4–5 瓦,省下將近 73% 的電力。NVIDIA 最新的 CPO 交換機系統,相比傳統架構可靠性更提升了 10 倍,頻寬密度也大幅提高。
對超大規模資料中心來說,這個數字極具意義。Jensen Huang 曾在 GTC 2025 點出:如果用傳統光模組擴張到 20 萬顆 GPU 的叢集規模,光是光收發器就要吃掉 17 百萬瓦的電力——這根本不可持續。CPO 正是這道難題的解法之一。
2026 年:從實驗室走進資料中心
CPO 不是新概念,但真正具備商業部署條件的產品,要到 2025 年才開始出現。NVIDIA 的 Quantum-X Photonics 系列已於 2025 下半年上市,Spectrum-X 系列預計 2026 年跟進,兩者都整合了矽光子共封裝光學技術,最高可達 409.6 Tbps 的頻寬。Broadcom、Marvell 等大廠也在加速布局,台灣的 TSMC 和相關供應鏈同樣是這場革命的核心參與者。
市場預測同樣樂觀,CPO 全球市場規模預計在這個十年內將從目前的數億美元級別,成長至數十億美元的規模,年複合成長率超過 30%。
這不只是工程師的話題
CPO 聽起來很硬,但它的影響其實碰得到每個人。AI 服務跑得更快、雲端計算更省電、資料中心的電費和碳排放有機會降低——這些都跟 CPO 的普及直接相關。下次你在用 AI 工具感嘆「回應好快」的時候,或許某個角落的光子引擎正默默地在發光。
如果這篇讓你對 AI 硬體有了新的認識,歡迎點個愛心 ❤️ 收藏起來!你對 CPO、HVDC 或其他 AI 基礎設施話題還有什麼好奇的?歡迎留言,我們一起聊聊。
#科技趨勢 #AI硬體 #資料中心













