OCP (Open Compute Project) 規範:Meta 和 Microsoft 如何重新定義 SSD?

更新 發佈閱讀 22 分鐘

引言

在當今由數據驅動的世界中,資料中心的角色已從傳統的後端支援設施,演變為驅動全球數位經濟的核心引擎。隨著雲端運算、人工智慧(AI)和巨量資料分析等技術的爆炸性成長,對資料中心基礎設施的效能、效率和擴展性要求達到了前所未有的高度。在這樣的背景下,一群被稱為「超大規模(Hyperscaler)」的科技巨頭,如 Meta(前身為 Facebook)和 Microsoft,不僅是這些服務的最大提供者,也成為了資料中心硬體創新的主要驅動者。

傳統上,資料中心依賴戴爾(Dell)、慧與科技(HPE)等原始設備製造商(OEM)提供的標準化伺服器和儲存設備。然而,超大規模企業的運營規模和獨特的工作負載,使其面臨著傳統硬體在成本、功耗和客製化彈性方面的巨大挑戰。為了擺脫這些束縛,他們開始尋求一種更開放、更具協作性的硬體生態系統。2011年,由 Meta、Intel、Rackspace 及高盛共同發起的「開放運算計畫」(Open Compute Project, OCP),正是這一需求的直接產物。

OCP 的核心理念是透過開源協作,共享資料中心的產品設計和最佳實踐,從而推動硬體技術的革新與標準化。從伺服器機架、電源供應到網路設備,OCP 的影響力已遍及資料中心的各個角落。而在儲存領域,特別是固態硬碟(SSD),OCP 的角色尤為關鍵。SSD 作為現代資料中心不可或缺的高速儲存媒介,其效能、可靠性和成本直接影響著整體服務品質與運營效益。

本文旨在深入探討 OCP 如何在 Meta 和 Microsoft 這兩大巨頭的引領下,重新定義了資料中心 SSD 的遊戲規則。我們將分析 Meta 為了解決超大規模啟動碟挑戰而主導的「超大規模 NVMe 啟動 SSD 規範」,以及 Microsoft 透過革命性的「Project Denali」架構對開放通道 SSD 的前瞻性佈局。透過解析這些由需求驅動的創新,我們將揭示 OCP 規範如何從根本上改變了 SSD 的設計理念、產業供應鏈結構以及總體擁有成本(TCO),並展望其對未來資料中心儲存技術的深遠影響。

第一章:OCP 的誕生與演進:從開放到標準化

OCP 的創立標誌著資料中心硬體領域的一次範式轉移。它不再是少數幾家 OEM 廠商定義市場規則,而是由最大的終端使用者——超大規模企業——親自下場,根據自身真實且極端的應用場景來設計和優化硬體。這種由下而上的創新模式,確保了技術發展能緊密貼合實際需求,從而實現最高的效率和經濟效益。

在儲存領域,OCP 的影響力尤其顯著。OCP 儲存專案由來自 Meta 的 Ross Stenfort 和來自 Microsoft 的 Lee Prewitt 等業界專家共同領導,致力於推動儲存硬體的開放式創新。其中,針對 NVMe SSD 的規範制定,成為了該專案的核心工作之一。隨著技術的演進,OCP 的 SSD 規範也經歷了多次重要的迭代,從早期的 OCP NVMe Cloud SSD Specification 1.0a 發展到更為成熟和全面的 2.0 版本,乃至最新的 2.5 和 2.6 版本。

這些規範的演進,不僅僅是技術指標的簡單升級,更是對資料中心實際運營痛點的深刻回應。例如,從 1.0a 到 2.0 版本,規範不僅將底層的 NVMe 標準從 1.4 升級到 1.4b,更重要的是,它根據超大規模應用的需求,增加了許多過去被視為「廠商特定(vendor-specific)」的非必須功能,並將其標準化。這意味著,無論 SSD 來自哪家供應商,只要符合 OCP 規範,就能在效能、管理和可靠性方面提供一致的體驗。

在 NVMe 基礎規範方面,OCP 2.0 從 NVMe 1.4 升級到 1.4b,確保了與主流 NVMe 標準的同步演進,保障了兼容性與最新功能的支持。在廠商特定功能上,OCP 2.0 增加了對遙測、功率管理等特定功能的標準化要求,大幅減少了廠商實現的差異性,提升了跨平台管理的一致性。

可靠性方面的改進尤為重要。OCP 1.0a 強調的是基本可靠度指標,而 OCP 2.0 則特別增強了對「溫度」和「異常斷電」的具體要求,針對資料中心複雜的物理環境提出了更嚴苛的穩定性標準。在耐用度方面,OCP 2.0 更明確地定義了設備壽命終結(End of Life)時的數據保全和唯讀功能,確保在 SSD 達到寫入壽命極限時,數據不會丟失且仍可讀取。熱適應方面,OCP 2.0 引入了更嚴格的熱控制標準,確保 SSD 在持續高溫下效能穩定,防止其在高密度機架的惡劣散熱環境中因過熱而降速或損壞。

這種不斷精進的標準化過程,其核心目標是實現「可預測性」。超大規模資料中心擁有數以百萬計的 SSD,任何微小的效能波動或可靠性問題都可能被放大,進而影響整體服務的穩定性。透過 OCP 規範,雲端服務提供者可以確保採購自不同供應商的 SSD 具有相似的行為模式、一致的管理介面和可預測的故障率,這極大地簡化了大規模部署、管理和維護的複雜性,從而有效降低了運營成本。

第二章:Meta 的超大規模創新:重新定義啟動碟

在超大規模資料中心的複雜生態系統中,即便是最基礎的元件——伺服器啟動碟(Boot Drive)——也面臨著獨特的挑戰。傳統上,啟動碟的任務相對單純,只需載入作業系統和必要的服務。然而,在 Meta 這樣規模的環境中,啟動碟的成本、效能一致性和供應鏈穩定性成為了不可忽視的運營難題。

啟動碟的困境:成本與效能的兩難

隨著主流資料碟(Data Drive)的容量和效能飛速成長,專門為啟動任務設計的小容量、低成本 SSD 市場逐漸萎縮。SSD 製造商更傾向於生產大容量、高效能的企業級 SSD,這使得超大規模企業在採購啟動碟時陷入了兩難。首先是成本問題,使用高規格的企業級 SSD 作為啟動碟,無疑是一種資源浪費。其大部分容量和效能都將被閒置,但採購成本卻居高不下。

另一方面,若採用消費級 SSD,雖然成本較低,但其效能一致性、耐用度和管理功能往往無法滿足資料中心 24/7 的嚴苛要求。特別是在啟動過程中涉及大量隨機讀寫和 TRIM 操作時,消費級 SSD 容易出現延遲抖動,影響伺服器的上線速度和穩定性。此外,由於缺乏統一標準,SSD 供應商提供的啟動碟規格五花八門,導致超大規模企業需要管理來自不同廠商的客製化韌體和硬體,增加了供應鏈的複雜性和風險。

為了解決這一系列挑戰,Meta 聯合 Google,在 OCP 框架下主導制定了「超大規模 NVMe 啟動 SSD 規範」(Hyperscale NVMe Boot SSD Specification)。這份於 2022 年初正式發布的規範,旨在為啟動碟市場建立一個清晰、開放且具成本效益的標準。

「超大規模 NVMe 啟動 SSD 規範」的核心理念

這份規範的核心,是精確定義了超大規模環境下啟動碟的「最小可行性產品」(Minimum Viable Product)輪廓。它不再追求全面的高效能,而是專注於滿足啟動工作負載的特定需求,從而實現最佳的性價比。其關鍵特性包括標準化的工作負載模型、明確的效能指標、對延遲一致性的注重,以及開源工具與合規性測試的提供。

規範定義了一個標準的啟動工作負載測試流程,模擬了伺服器啟動時的真實 I/O 行為,包括密集的隨機讀取、背景寫入以及大量的 TRIM 操作。這為供應商提供了一個明確的效能目標。規範為啟動碟設定了清晰的「通過/失敗」標準,例如,在標準啟動工作負載下,讀取效能必須達到 60,000 IOPS。這個指標確保了即使是成本優化的 SSD,也能提供足夠的效能來保證快速、可靠的伺服器啟動。

超大規模應用對延遲極為敏感。規範特別強調了在混合讀寫和 TRIM 操作下,SSD 必須保持穩定的低延遲,避免出現效能抖動,這對於保障大規模叢集的整體穩定性至關重要。

「我們已經開始在我們的 SSD 評測中添加一個啟動台性能部分,這是 OCP 採用的工作負載配置文件,用於衡量專為伺服器啟動任務設計的 SSD。此引導工作負載執行一個相對密集的測試計劃,在測試讀取密集型工作負載序列之前,用寫入完全填充驅動器。」—— StorageReview

為了推動規範的普及,OCP 社群提供了開源的測試工具和合規性測試套件。這使得 SSD 供應商可以方便地驗證其產品是否符合規範,同時也讓採購方能夠對不同產品進行公平、一致的評估。

透過這份規範,Meta 不僅為自己,也為整個產業解決了啟動碟的採購難題。它向市場傳遞了一個明確的信號:超大規模企業需要的是「恰到好處」的啟動碟,而非昂貴的「效能怪獸」。這促使 SSD 供應商重新審視其產品策略,開發出專門針對此市場的、符合 OCP 規範的產品線。這不僅降低了超大規模企業的硬體成本,也為 SSD 製造商開闢了一個新的、標準化的市場,最終形成了一個雙贏的局面。

第三章:Microsoft 的前瞻佈局:Project Denali 與開放通道革命

如果說 Meta 的貢獻是透過精確定義需求來優化現有 SSD 架構,那麼 Microsoft 的創新則更具革命性,它試圖從根本上重塑 SSD 的內部工作方式。在 2018 年的 OCP 高峰會上,Microsoft 震撼性地推出了 「Project Denali」,這是一項旨在標準化雲端 SSD 韌體介面的規範,其核心思想是將傳統 SSD 中緊密耦合的「數據放置邏輯」與「物理媒介管理」進行解耦。

傳統 SSD 的「黑盒子」問題

在傳統的 SSD 設計中,主機(Host)將其視為一個「黑盒子」。主機只負責發出邏輯區塊位址(LBA)的讀寫命令,而 SSD 內部則由一個複雜的韌體層——快閃記憶體轉換層(Flash Translation Layer, FTL)——全權負責所有底層事務。這包括位址轉譯,將主機的邏輯位址對應到 NAND Flash 的物理位址;垃圾回收(Garbage Collection, GC),整理和回收無效數據所在的區塊,以供新的寫入操作使用;耗損平均(Wear Leveling),確保對所有 NAND Flash 單元的寫入操作均勻分佈,以延長 SSD 的整體壽命;以及壞塊管理(Bad Block Management),標記並替換出廠時或使用中產生的損壞區塊。

這種「黑盒子」模式在早期簡化了 SSD 的採用,但對於像 Microsoft Azure 這樣的超大規模雲端平台而言,它帶來了日益嚴峻的挑戰。首先是效能不可預測性。垃圾回收等背景操作會隨機觸發,導致 I/O 延遲突然飆升,產生所謂的「延遲尖峰」(Latency Spikes)。在多租戶環境下,一個租戶的寫入行為可能觸發 GC,進而影響到共享同一 SSD 的所有其他租戶,這種「噪音鄰居」效應極難控制。

其次是寫入放大(Write Amplification)的問題。由於 GC 的存在,實際寫入到 NAND Flash 的數據量通常會大於主機發出的數據量,這種現象被稱為寫入放大。過高的寫入放大不僅會降低 SSD 的有效寫入頻寬,還會加速其磨損,縮短使用壽命。

第三個挑戰是創新步伐緩慢。SSD 的韌體與特定的 NAND Flash 世代緊密綁定。每當 NAND 技術更新換代,SSD 廠商都需要花費大量時間重新開發和驗證 FTL,這減緩了新技術應用的速度。同時,雲端服務商也無法根據自身應用的特性來客製化數據放置策略,以達到最佳效能。

Project Denali 的革命性解耦

Project Denali 的核心思想,是打破 SSD 的「黑盒子」,將 FTL 的職責一分為二。這一架構被稱為「開放通道 SSD」(Open-Channel SSD)。

「Project Denali 是一個標準化和演進的開放通道,它定義了 SSD 與主機中標準介面 SSD 的角色。介質管理、糾錯、壞塊映射、以及特定於快閃記憶體世代的其他功能……」—— Microsoft

其架構將 FTL 的功能進行了革命性的劃分。媒體管理器(Media Manager)保留在 SSD 硬體內部,專注於處理與 NAND Flash 物理特性直接相關的底層任務,如 ECC 錯誤校正、讀取重試、數據刷新等。這些任務與具體的 NAND 世代緊密相關,由最了解該 NAND 特性的硬體來處理最為高效。

日誌管理器(Log Manager)則從 SSD 韌體中移至主機(Host)的軟體層。它負責處理所有與數據組織和放置相關的邏輯任務,包括位址轉譯、垃圾回收和 I/O 調度。主機端的軟體可以根據應用程式的具體需求(例如,區分冷熱數據、隔離不同租戶的 I/O)來實現高度客製化的數據放置策略。

這種架構的變革帶來了多個維度的優勢。在位址轉譯方面,主機可以完全控制數據佈局,實現應用感知儲存。在垃圾回收方面,GC 的觸發時機和策略可由主機控制,消除延遲尖峰。在 I/O 調度方面,可以實現更精細的 I/O 隔離和服務品質(QoS)保證。在物理媒介管理方面,ECC 和耗損平均等任務保留在最接近硬體的地方,確保物理層的可靠性。

透過這種革命性的解耦,Project Denali 為雲端儲存帶來了前所未有的靈活性和控制力。Microsoft Azure 可以開發自己的 FTL(即 Log Manager),針對其數百種不同的雲端服務進行深度優化。例如,它可以將需要頻繁覆寫的資料庫日誌與長期存檔的冷數據放置在不同的物理區域,從而將寫入放大降至最低。它還可以在非業務高峰時段統一執行垃圾回收,徹底消除對線上服務的效能干擾。

Project Denali 的提出,不僅是 Microsoft 自身技術演進的一步,更是透過 OCP 向整個產業發出的一次號召。它鼓勵 SSD 供應商從「黑盒子」的思維中解放出來,轉而提供更加開放和可程式化的硬體平台。雖然開放通道 SSD 的實現比傳統 SSD 更為複雜,需要主機端軟體的深度參與,但它所帶來的效能可預測性、成本效益和創新潛力,使其成為超大規模資料中心儲存架構演進的必然方向。

第四章:OCP 規範的產業影響:成本、供應鏈與效能的全面革新

Meta 和 Microsoft 在 OCP 框架下的創新,不僅僅是技術上的突破,更對整個資料中心產業的生態系統產生了深遠的、結構性的影響。透過推動 SSD 的開放與標準化,OCP 從根本上改變了硬體的成本結構、供應鏈模式以及效能評估體系,引發了一場全面的產業革新。

成本優化:從 TCO 角度的徹底顛覆

OCP 規範最直接、最顯著的影響,體現在總體擁有成本(Total Cost of Ownership, TCO)的大幅降低上。這不僅僅是單純的硬體採購成本(CapEx)下降,更包含了運營成本(OpEx)的顯著節省。

首先是打破廠商鎖定,降低採購成本。在 OCP 出現之前,資料中心高度依賴少數幾家 OEM 廠商提供的專有(Proprietary)儲存系統。這些系統價格高昂,且不同廠商之間的硬體和管理軟體互不兼容,形成了事實上的「廠商鎖定」。OCP 透過建立開放標準,使得超大規模企業可以直接向原始設計製造商(ODM)或元件供應商採購符合規範的白牌(White-box)硬體。這種模式繞過了傳統 OEM 的品牌溢價和軟體授權費用,極大地降低了硬體採購成本。

其次是簡化運維,降低運營成本。標準化帶來的一致性是降低運營成本的關鍵。當資料中心內數以百萬計的 SSD 都遵循相同的 OCP 規範時,無論它們來自哪個製造商,都具有相同的管理介面、遙測數據格式和可預測的效能行為。這使得自動化部署、大規模監控、故障預測和韌體更新等運維工作變得極為高效,顯著減少了人力投入和因不兼容性導致的潛在問題。

第三是提升資源利用率。以 Microsoft 的 Project Denali 為例,透過將數據放置邏輯移至主機,雲端平台可以根據應用負載的實際情況進行精細化的資源調度,將寫入放大降至最低,從而提升了 SSD 的有效壽命和可用空間。Meta 的啟動碟規範則避免了使用過高規格硬體所造成的資源浪費。這些都直接轉化為更高的資本效率和更低的 TCO。

供應鏈重組:從線性到網狀的協作模式

OCP 的興起,徹底重塑了傳統的「元件廠 -> OEM -> 客戶」的線性供應鏈模式,催生了一個更加扁平化、網狀化的協作生態。

ODM 的崛起是這場變革的重要標誌。廣達(Quanta)、緯創(Wistron)旗下的緯穎(Wiwynn)等台灣 ODM 廠商,憑藉其強大的製造和設計整合能力,在 OCP 生態中扮演了至關重要的角色。它們能夠根據 OCP 規範,快速地為超大規模客戶量身打造伺服器和儲存系統,成為連接晶片/元件供應商與終端客戶的核心樞紐。

傳統 OEM 也在進行轉型。面對 OCP 帶來的衝擊,傳統的伺服器巨頭如 Dell 和 HPE 也不得不調整策略。它們一方面積極參與 OCP 社群,貢獻自己的設計和技術;另一方面,則將業務重點更多地轉向提供高附加值的軟體、解決方案和服務,以應對純硬體業務利潤被壓縮的挑戰。

雲端業者的深度參與改變了整個產業的權力結構。Meta 和 Microsoft 等超大規模企業不再是單純的硬體採購方,而是成為了技術規範的制定者和產業方向的引領者。它們與 SSD 控制器廠商(如 Phison、Silicon Motion)、NAND Flash 原廠(如 Samsung、Micron、Solidigm)直接對話,共同定義下一代產品的形態和功能,極大地縮短了技術從研發到應用的週期。

效能與效率的再定義

OCP 重新定義了衡量 SSD 價值的標準。它不再是單純追求峰值 IOPS 或吞吐量,而是更加關注在真實應用場景下的「可預測效能」和「能效比」。

從「峰值效能」到「一致性效能」的轉變是一個重要的觀念改變。OCP 規範,特別是其嚴格的合規性測試,強調的是 SSD 在長時間、高壓力、混合負載下的效能穩定性。這迫使 SSD 廠商不僅要優化其產品的最好情況表現,更要關注其最壞情況下的延遲控制,確保沒有意外的效能抖動。

工作負載感知的優化成為了新的設計理念。OCP 鼓勵針對特定工作負載進行優化。Meta 的啟動碟規範就是一個典型例子,它證明了針對特定場景的「專用」設計,遠比「通用」的高效能設計更具成本效益。Project Denali 則將這一理念推向極致,允許主機根據應用程式的即時需求動態調整數據管理策略。

OCP 框架也推動了新技術的普及。隨著 QLC(Quad-Level Cell)甚至 PLC(Penta-Level Cell)NAND Flash 技術的成熟,其成本優勢日益凸顯,但其較低的寫入耐久度和效能也帶來了挑戰。OCP 框架,特別是開放通道 SSD 的架構,為應用這些新技術提供了理想的平台。主機端的智慧 FTL 可以透過精細的數據放置和寫入管理,揚長避短,最大化 QLC/PLC SSD 的價值,從而加速其在資料中心的普及。

結論:開放協作,定義未來

OCP (Open Compute Project) 的故事,是一場由需求驅動、由協作賦能的技術革命。以 Meta 和 Microsoft 為首的超大規模企業,面對自身前所未有的運營挑戰,沒有選擇閉門造車,而是走上了一條開放、共享的道路。它們透過 OCP 這個平台,將自身最深刻的痛點轉化為清晰、可執行的技術規範,從而撬動了整個資料中心硬體產業的變革。

在 SSD 領域,這場變革尤為深刻。Meta 主導的「超大規模 NVMe 啟動 SSD 規範」,以一種務實而精準的方式,解決了啟動碟市場長期存在的成本與效能失配問題,為產業樹立了「恰到好處」的設計典範。而 Microsoft 的「Project Denali」,則以前瞻性的視野,透過「開放通道」架構解構了 SSD 的內部壁壘,將控制權交還給應用程式,為實現真正的軟體定義儲存鋪平了道路。

這兩大創新,從兩個不同的維度,共同指向了未來資料中心儲存的發展方向:標準化、可程式化和成本效益化。OCP 規範的影響,早已超越了硬體本身。它重塑了供應鏈,催生了新的商業模式,並建立了一個更加健康、多元和富有活力的產業生態。在這個生態中,創新不再是少數巨頭的專利,而是所有參與者——從晶片設計公司到系統整合商,再到軟體發展者——共同努力的結果。

展望未來,隨著 AI 技術的深入發展,資料的產生和處理將呈現指數級增長,對儲存系統的要求也將變得更加極致和多樣化。OCP 所倡導的開放與協作精神,將是應對這一挑戰的最有力武器。我們可以預見,在 OCP 的持續推動下,SSD 乃至整個資料中心基礎設施,將朝著更加智慧、高效和可持續的方向不斷演進。Meta 和 Microsoft 的實踐已經證明,當產業中最具影響力的使用者開始重新定義問題時,答案也將隨之改變。而這場由 OCP 引領的重新定義之旅,才剛剛開始。

留言
avatar-img
SSD驗證工程師的告白
60會員
334內容數
針對平時SSD驗證上的感想
2026/03/25
很多人以為 SSD 驗證主要是「SSD 本身的問題」。但實務上,80% 的問題其實發生在「平台相容性」與「Host 互動邏輯」上。 無論你是面對 Intel 的桌機平台、AMD 的消費性 CPU、或是伺服器主板,每種平台對 PCIe Initial Link、BIOS NVMe Init、Rese
2026/03/25
很多人以為 SSD 驗證主要是「SSD 本身的問題」。但實務上,80% 的問題其實發生在「平台相容性」與「Host 互動邏輯」上。 無論你是面對 Intel 的桌機平台、AMD 的消費性 CPU、或是伺服器主板,每種平台對 PCIe Initial Link、BIOS NVMe Init、Rese
2026/03/07
一個成熟的 SSD 驗證工程師,能夠找到 bug;而一個有價值的 SSD 驗證團隊,能夠累積 bug、管理知識、回溯邏輯。 我們常說:「驗證是一門用錯誤堆出來的技術」——但如果錯誤只發生過一次就被遺忘,那你的驗證就永遠只能停留在「被動救火」的層級。 這篇文章我想分享的是: 我是如何把 SSD
2026/03/07
一個成熟的 SSD 驗證工程師,能夠找到 bug;而一個有價值的 SSD 驗證團隊,能夠累積 bug、管理知識、回溯邏輯。 我們常說:「驗證是一門用錯誤堆出來的技術」——但如果錯誤只發生過一次就被遺忘,那你的驗證就永遠只能停留在「被動救火」的層級。 這篇文章我想分享的是: 我是如何把 SSD
2026/01/28
隨著 AI 模型從雲端走向邊緣 (Edge),儲存裝置的角色正在發生典範轉移。過去我們只要求 SSD 讀寫要快、資料要準;但在 CSD (Computational Storage Device) 架構下,SSD 不再只是資料的倉庫,更變成了運算的「大腦」。 這篇文章將深入探討當 SSD 整合了
2026/01/28
隨著 AI 模型從雲端走向邊緣 (Edge),儲存裝置的角色正在發生典範轉移。過去我們只要求 SSD 讀寫要快、資料要準;但在 CSD (Computational Storage Device) 架構下,SSD 不再只是資料的倉庫,更變成了運算的「大腦」。 這篇文章將深入探討當 SSD 整合了
看更多