
嗨,我是 Mech Muse 👋,今天要跟大家聊聊 Google 一則看起來很「工程師味」的新聞。
Google 最近任命資深工程大將 Amin Vahdat 擔任全新的「AI 基礎設施總負責人」。乍看只是人事異動,但背後代表的是:Google 打算把未來幾百億美元的 AI 投資——包含資料中心、網路、TPU 晶片——全部聚焦起來,由一個重量級人物統一指揮。讀完這篇,你會知道三件事情:
1)Amin Vahdat 是誰,為什麼這位置非他莫屬
2)這個角色怎麼從 Google 的發展中一步一步長出來
3)這項任命在整個 AI 基礎設施競爭裡代表什麼訊號
一、Google 找誰來管 AI 基礎設施?先來認識 Amin Vahdat 🔧
Google 指派 Amin Vahdat 擔任「AI infrastructure chief technologist」,也就是 AI 基礎設施的總工程長。這個職位的核心,就是把 Google 未來在資料中心、網路架構、自研 TPU 晶片等重大投資全部整合在一起。Google 今年的資本支出預計會突破 900 億美元,而且大部分都砸在 AI 基礎建設上。

Google Cloud 執行長 Thomas Kurian 在備忘錄裡也直接點明:這項調整,就是要把 AI 基礎設施定為公司的核心戰略領域。換句話說,Google 不只是要做「厲害的 AI 模型」,更要把底層算力做到世界級。
那 Amin 到底是誰?他絕對不是臨時被拉上來的。Google 官方資料顯示,他是 Engineering Fellow、資深副總裁,長期負責 ML 系統、Cloud AI 團隊、Compute、資料中心網路架構、以及 TPU/GPU 等運算平台。
簡單講:
Google 用來訓練 Gemini、推論搜尋與 YouTube、支撐 Google Cloud 的算力骨幹,大多跟他的團隊有關。
Google 把原本已經由他掌管的「底層基礎設施」擴大成正式的高層職位,也是在向外界宣示:這一塊是 Google 的決勝點。
二、他的職涯時間線:從學界大神到 Google「AI 腳骨」🧠➡️🏗️
如果把 Amin 的背景用時間軸拉開來看,你會發現 Google 這次的任命其實早有鋪陳:
- 1990 年代:UC Berkeley 完成本科與博士,研究分散式系統與網路架構,奠定他後來在大規模系統設計的基礎。
- 2000 年前後:Duke University 推出 ModelNet,提供研究者用來模擬網路拓樸的平台。這在當時算是非常前衛的雲端研究基礎。
- 2004–2013:UC San Diego 擔任講座教授,主攻資料中心網路架構、SDN(軟體定義網路)。許多雲端巨頭後來採用的概念,他那時就已經在研究。
- 2010 加入 Google 先是負責資料中心交換機與全球廣域網路設計。2015 年《WIRED》揭露 Google 自研交換器時,也提到他是背後的關鍵人物之一。
後來十多年,他的角色從「網路」一路擴大到「整個 Google 的系統與運算平台」。他管的包括運算平台、儲存系統、Cloud Networking、負載平衡、ML 相關硬體與軟體堆疊。
他也拿過 ACM SIGCOMM 終身成就獎、入選 美國國家工程院院士,Business Insider 更把他列為 AI Power List 的重要人物之一。
到了 2025 年底,Google 正式創造「AI 基礎設施總技術長」這個新角色,就像是正式替他過去十年的影武者工作補上一個「職銜版的勳章」。
三、Google 為什麼一定要有這個角色?來看背後的盤算 ⚔️🖥️
Google 為什麼要特別成立這個職位,而不是讓各產品團隊自己加 GPU、自己搞資料中心?
原因有三個:
1)算力成本太可怕,必須集中火力管理
訓練 Gemini、推論 AI 模型,最主要的成本就是算力與電力。
Google 今年資本支出逼近 900 億美元,多數都花在 AI 基礎建設上。
這麼大的投資如果不由同一個人統籌,很容易造成資源重複投入、算力利用率不佳、成本爆炸。
2)Google 走的是「全堆疊垂直整合」
Google 不像很多公司只做 AI 模型,它從:
TPU 晶片 → 機房 → 叢集排程 → 雲端平台 → Gemini API → Search/YouTube/Gmail
全部都是自己做。
這種「從晶片做到應用」的模式,需要一個懂網路架構、懂資料中心、懂 ML 訓練需求的技術領袖,來制定方向,例如:
- 下一代 TPU 要怎麼設計?
- 網路拓樸怎麼改才能讓模型訓練更快?
- 機房、冷卻、電力怎麼重新規劃?
Amin 剛好就是最能同時看懂這些東西的人。
3)競爭壓力太大:Microsoft、Amazon 都在搶 AI 基礎設施
Microsoft 有 Azure × OpenAI;
Amazon 推 Trainium/Inferentia 晶片,試圖降低對 NVIDIA 的依賴。
在這種競局下,Google 必須向企業客戶證明:
「我們有足夠、可靠且成本有競爭力的 AI 算力。」
成立這個職位,就是在發出一個很明確的市場訊號。
四、小結🚀
總結一下:Google 這次的任命不是行政調動,而是把 AI 基礎設施拉到公司的戰略最高層級,由最懂資料中心與網路架構的大將領軍。
AI 的競爭已經不是「誰的模型比較聰明」,而是:
誰能提供最便宜、最快速、最穩定、規模最大的算力。
接下來可以觀察三件事:
- 未來 Google 財報的資本支出是否更大比例投入 AI 基礎設施
- TPU 與資料中心架構是否更常被 Google 拿出來當「產品賣點」
- Google Cloud 是否開始大力強調「完整 AI 基礎設施堆疊」
這些變化不會立刻出現,但長線來看,誰能把機房與算力打好,誰才有資格在 AI 市場玩下去。
這次 Amin Vahdat 的任命,就像 Google 在 AI 長跑裡正式宣布:「我們的配速員上線了。」
如果你喜歡析,歡迎追蹤我 Mech Muse 👋。
之後還會帶你一起輕鬆理解 AI、雲端、半導體與太空科技的最新發展!



















