一、已確認:CSP AI capex 仍在上修,供給瓶頸沒有解除
Microsoft 是本週最重要訊號。
Microsoft FY26 Q3 法說明確表示,CY2026 capex 約 1,900 億美元,其中約 250 億美元來自較高零組件價格;公司也直接說明,即使加速 GPU、CPU、storage capacity 上線,至少到 2026 年仍會受供給限制。這是目前最強的官方需求訊號之一,代表 AI 伺服器、GPU、CPU、儲存、網通、電力與資料中心設備仍有硬需求支撐。
Alphabet / Google 的 AI capex 也維持高強度。
Alphabet Q1 2026 表示,單季 capex 為 357 億美元,絕大多數投入 AI 相關技術基礎設施;其中約 60% 是 servers,40% 是 data centers 與 networking equipment。先前 Q4 2025 法說則給出 2026 全年 capex 1,750–1,850 億美元區間。
Oracle 的 AI 雲基建需求非常強。
Oracle FY26 Q3 顯示,Cloud Infrastructure IaaS 收入 49 億美元,年增 84%;RPO 達 5,530 億美元,年增 325%。Oracle 也維持 FY2026 capex 500 億美元指引,並預期 FY2027 營收上修至 900 億美元。這是 AI 雲需求外溢到非三大 CSP 的明確證據。
Amazon / AWS 的 AI 收入已成規模。
Amazon 2025 shareholder letter 指出,AWS AI revenue run rate 在 Q1 2026 已超過 150 億美元,並提到 Bedrock、Trainium、agent-building 等需求。這代表 AWS 的 AI 需求不只是 GPU 雲,而是模型、推理、自研晶片與 agent stack 的綜合需求。
----------------------------------------------------------------------------------------------
二、AI 架構與規格升級:從 GPU 單卡競賽,轉向 rack-scale / cluster-scale / inference-specialized
NVIDIA Vera Rubin NVL72 是目前最重要的架構變化。
官方資料顯示,Vera Rubin NVL72 整合 72 顆 Rubin GPU、36 顆 Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 switch,定位是 rack-scale AI supercomputer;NVIDIA 表示相對 Blackwell,Rubin 可用 1/4 GPU 做 AI training、以 1/10 token 成本做 AI inference。這會把供應鏈重點從單一 GPU 轉向整櫃設計、液冷、銅互連、NVLink switch、DPU、NIC、光通訊與電源架構。
NVIDIA 也把網路升級推到 CPO / photonics。
NVIDIA 官方新聞指出,Spectrum-X Ethernet Photonics co-packaged optical switch systems 基於 Spectrum-6 架構,可達 10 倍可靠度、5 倍 uptime、5 倍 power efficiency。這是 CPO / 光通訊進入 AI data center 主幹的明確官方訊號。
Google TPU 開始分化成訓練與推理雙軌。
Google Cloud Next ’26 宣布 Ironwood TPU 與 Axion processors 已 GA;另外 Google 發表第八代 TPU:TPU 8t 偏訓練,TPU 8i 偏低延遲推理。TPU 8t 技術文提到單一 superpod 可達 9,600 chips,並強調 SparseCore、VPU/MXU overlap、embedding-heavy workload。這代表 Google 的架構正在針對 agentic AI、推理、embedding 與 recommendation workload 做更細分設計。
AWS Trainium3 UltraServers 也正式進入下一代。
AWS 官方資料指出,Trn3 相比 Trn2 UltraServers 提供最高 4.4 倍效能、3.9 倍記憶體頻寬、4 倍 performance/watt,面向 frontier-scale models、reinforcement learning、MoE、reasoning 與 long-context workloads。這強化一個趨勢:CSP 正在以自研 ASIC 對抗 GPU 成本與供給限制。
-----------------------------------------------------------------------------------
三、半導體與封裝:CoWoS / SoIC / 大 reticle / warpage / thermal 成為核心瓶頸
TSMC 官方確認 advanced packaging capacity 仍非常緊。
TSMC Q1 2026 法說中,管理層明確表示 advanced packaging capacity “very tight”,需要與 OSAT 夥伴合作增加產能;同場也提到 AI chips 走向 super chips、大 die size 與最大 reticle,技術挑戰包括 warpage、mechanical stress、thermal limitation。
TSMC AI accelerator 長期需求仍強。
TSMC Q1 2026 法說對 AI accelerator revenue 的長期 CAGR 表示,需求訊號仍強,並稱觀察到的 CAGR 是往 higher 50s 方向。這是目前最直接的 foundry 端 AI 需求驗證。
TSMC 4 月營收仍高。
TSMC 2026 年 4 月合併營收 NT$4107.26 億,月減 1.1%、年增 17.5%;1–4 月累計 NT$1.544829 兆,年增 29.9%。這與 AI / HPC 需求延續相符,但單月營收不能直接等同 AI 訂單,需要配合法說與客戶 capex 驗證。
-------------------------------------------------------------------------
四、台灣 AI server 供應鏈:官方與媒體訊號一致偏強
Foxconn / 鴻海 4 月營收創同期高,AI server rack 是主因之一。
媒體彙整顯示,鴻海 2026 年 4 月營收約 NT$8321 億,年增約 29.7%,雲端與網通產品受 AI cloud infrastructure 需求推動。這是媒體與公司公告整理訊號,仍建議後續以鴻海官方月營收與法說作一階驗證。
Wistron / 緯創 AI server exposure 仍高。
Taipei Times 報導指出,緯創前兩個月 AI servers 約占營收 70%,公司也會持續觀察 AI infrastructure investment 動態。這個數字具參考價值,但需搭配緯創官方月營收與法說確認毛利率壓力,因為 rack 產品比重提升可能壓縮毛利。
-----------------------------------------------------------------------------
五、Edge AI / Robotics / Autonomous Driving
Tesla Q1 2026 顯示 FSD 訂閱仍成長,但汽車本業壓力也存在。
Tesla Q1 2026 update 顯示 Active FSD Subscriptions 達 128 萬,年增 51%;但同頁也顯示總交付量年增僅 6%,庫存天數升到 27 天。判斷上不能只看 FSD 成長,要同時看車輛交付與庫存壓力。
Tesla 先前官方文件仍把 autonomous vehicles 與 humanoid robots 視為同一套系統工程能力延伸。
Tesla 2026 年初文件提到,autonomous vehicles 與 humanoid robots 的方法類似其 EV / energy storage 路線:從系統層級找限制因子,開發 batteries、power electronics、inverters、software、AI silicon 等 bespoke scalable solutions。這代表 Optimus / FSD 的供應鏈不只是機械件,也包括 AI silicon、電源、感測、執行器與邊緣推理。
---------------------------------------------------------------------
六、可能受益環節
高確定性受益鏈:
AI servers、rack integration、液冷 CDU / cold plate、電源供應、BBU、銅纜 / backplane / connector、高速 PCB、NVLink / PCIe / CXL 相關 retimer、NIC、DPU、switch ASIC、800G / 1.6T optical、CPO、HBM、CoWoS / SoIC、ABF substrate、測試 / burn-in / socket。支撐來源是 Microsoft / Alphabet / Oracle capex、NVIDIA Rubin rack-scale、Google TPU、AWS Trainium3 與 TSMC advanced packaging tightness 的交叉驗證。
中高確定性受益鏈:
custom ASIC design、CSP 自研 AI chip、Broadcom 類 AI networking / custom accelerator 供應鏈。Broadcom 官方 Q1 AI revenue 達 84 億美元,年增 106%,由 custom AI accelerators 與 AI networking demand 驅動。
需要小心的地方:
AI server 出貨量增加不等於所有供應鏈利潤同步增加。緯創案例顯示 rack-related product mix 可能造成毛利率壓力;因此要分辨「營收受益」與「毛利受益」。
------------------------------------------------------------
媒體線索 / 尚未完全驗證
Anthropic 與 Google / Broadcom 的超大型算力合約是重要線索,但目前屬媒體報導層級。
Reuters 引述 The Information 報導,Anthropic 據稱承諾未來五年花費 2000 億美元使用 Google Cloud services 與 chips,並涉及 Broadcom / Google TPU capacity。另一篇 Reuters 報導稱 Broadcom 與 Google 簽署長期 AI chip 合作至 2031。這些若被官方財報、RPO、合約揭露或 Broadcom / Alphabet 法說確認,將是 custom TPU / ASIC 供應鏈重大利多;目前應列為「高重要、待官方驗證」。
SoftBank 日本 AI server 計畫也是媒體線索。
Reuters 引述 Nikkei 報導,SoftBank Corp 正考慮與 NVIDIA、Foxconn 合作開發日本國產 AI servers。這可能增加 Foxconn / NVIDIA AI server 地區型需求,但目前尚未看到完整官方資本開支與供應鏈分配細節。
-------------------------------------------------------------
判斷
AI 投資主線沒有轉弱,反而從「GPU 數量」進入更難的第二階段:整櫃、整座資料中心、電力、冷卻、網路、封裝、推理成本。最值得追的不是單一 GPU,而是瓶頸轉移:
CSP capex 上修與 supply constrained 同時存在:Microsoft 是最明確案例。
Rubin / TPU 8t-8i / Trainium3 都指向 rack-scale 與 custom silicon。
TSMC advanced packaging tightness 是 AI accelerator 需求最硬的供應鏈驗證。
CPO / Spectrum-X Photonics / 1.6T 網通會變成下一階段 alpha。
AI server 代工營收很強,但要嚴格追毛利率,不可只看營收。
----------------------------------------------------------------
本週二級媒體雷達重點
1. AI 資料中心主線:液冷、800V、高密度機櫃已成「結構性升級」
最強訊號仍集中在 AI data center power + cooling + rack-scale integration。DIGITIMES 指出 NVIDIA GB 架構已推動液冷成為標準配置,並延伸到冷板、manifold、chassis 等供應鏈;AVC 也被報導將擴大液冷產能。科技新報近期也報導資料中心用電、用水壓力升高,Direct-to-Chip 液冷成為降低熱管理壓力的重要方向。這些不是單一零組件題材,而是「機櫃級系統架構」升級。
供應鏈含義:
受惠範圍從散熱模組擴大到冷板、CDU、manifold、液冷管路、快接頭、機櫃、電源線纜、Busbar、電源管理 IC、變壓器與高壓配電。大東電被科技新報報導正在研發液冷電纜,鎖定 800V 以上高壓電力架構需求;DIGITIMES 也報導 NVIDIA 推動 HVDC 800V 電源設計,讓 power management 的重要性接近記憶體等級。
驗證狀態:
媒體訊號強,但仍需用 NVIDIA 官方 GTC / 技術白皮書、ODM 財報、散熱廠月營收與 capex 指引交叉驗證。特別要確認的是:800V 導入時程、是否從 Rubin 才大規模放量、以及各供應商實際是否進入量產而非樣品階段。
2. AI 基建瓶頸:電力、變壓器、開關設備可能比 GPU 更先卡住
科技新報引用外媒與產業資料指出,美國 2026 年預定資料中心建設中,接近一半可能因電力基礎設施短缺與供應鏈問題而延期或取消;文中也提到資料中心新增容量與實際開工落差。The Information 近期也有資料中心進度落後的主題,但公開內容有限,無法完整驗證細節。
投資判斷:
AI capex 不只看 GPU 訂單,應該追蹤「可用電力」、「併網速度」、「變壓器交期」、「switchgear」、「UPS」、「配電盤」、「高壓線纜」。如果電力鏈交期拉長,GPU 出貨不一定直接等於資料中心上線速度。
驗證來源建議:
優先看 Alphabet、Microsoft、Amazon、Meta 的 capex 指引與資料中心折舊/建設進度,再看 Eaton、Vertiv、Schneider、GE Vernova、Quanta Services、台灣電力設備與線纜廠的訂單能見度。
3. Rack-scale AI:ASIC、先進封裝、光互連與 ODM 整合正在合流
DIGITIMES Biz Focus 顯示 GUC 與 Wiwynn 宣布合作下一代 AI 系統基礎設施,結合 SoC 設計、2.5D/3D 先進封裝、rack-scale system integration、液冷與 optical interconnect。這條訊號值得重視,因為它代表 AI ASIC 不再只是晶片設計案,而是走向「晶片 + 封裝 + 光互連 + 機櫃」整體方案。
可能受惠方向:
GUC、Wiwynn、ASIC 設計服務、CoWoS / SoIC / 2.5D / 3D 封裝、光模組、CPO/LPO、PCB/CCL、高速連接器、機櫃整合廠。
需要驗證:
是否已有 CSP 客戶導入、合作是技術展示還是量產專案、以及是否連動 Broadcom / Marvell / 自研 ASIC 需求。

















