AI晶片核心技術解析:HBM、CPO與載板、PCB的結構與應用
在人工智慧產業快速迭代的今天,AI晶片(如NVIDIA GPU)已成為驅動大模型訓練、高效運算的核心硬體,其性能表現直接決定AI應用的運行效率與體驗。隨著AI算力需求持續爆發,數據傳輸速度與功耗控制逐漸成為制約晶片性能突破的關鍵瓶頸。為破解這一困境,HBM(高頻寬記憶體)與CPO(共封裝光學)兩項關鍵技術應運而生,它們與IC載板、系統PCB相互配合,從微觀到巨觀形成完整的物理架構,共同支撐AI晶片的高效運轉。本文將詳細解析這四者的物理排列順序、核心角色差異及技術要求,幫助深入理解AI晶片的內部結構與運作邏輯。
一、AI晶片的物理封裝結構:由內而外的層級排布
AI晶片的物理封裝遵循「由內而外、從微觀到巨觀」的層級邏輯,從核心運算單元到整機互連基礎,分為頂層、中間層與底層三個主要部分,各層級緊密銜接,確保數據傳輸的高效與穩定。其中,HBM與CPO位於最核心的頂層,是突破數據傳輸與功耗瓶頸的關鍵;IC載板作為中繼橋樑,負責銜接核心與基礎;系統PCB則作為底層支撐,實現整機元件的整合與供電。
(一)頂層:晶片與HBM/CPO光引擎——核心運算與數據傳輸單元
頂層是AI晶片的核心區域,集中了運算晶片、HBM記憶體與CPO光引擎,三者緊密集成,直接決定晶片的運算效率與數據傳輸速度,是破解性能瓶頸的核心環節。
HBM(高頻寬記憶體)是與主晶片(GPU/ASIC)直接對接的高速記憶體,其核心價值在於解決「運算速度與數據搬運速度不匹配」的問題。與傳統記憶體不同,HBM透過CoWoS(晶片上矽中介層)等先進封裝技術,將記憶體晶粒(Die)垂直堆疊,緊鄰運算晶片放置,實現數據的「零距離」傳輸。這種垂直堆疊設計不僅節省了封裝空間,更大幅提升了數據傳輸頻寬,讓運算晶片能夠即時調用記憶體中的數據,避免因數據搬運滯後導致的算力浪費,從根本上緩解了「記憶體牆」帶來的瓶頸。
CPO(共封裝光學)則聚焦於解決傳統銅線電訊號在高速傳輸中的損耗與發熱問題,是突破「傳輸牆」與「功耗牆」的關鍵技術。其核心設計思路是將負責光電轉換的「光引擎」從外部可插拔模組移入晶片封裝內,與處理晶片共用同一個基底。傳統光模組與晶片分離設置,銅線傳輸距離較長,在高速傳輸時會出現嚴重的信號損耗與發熱,不僅降低傳輸效率,還會增加功耗;而CPO將光引擎與晶片共封裝,縮短了光電轉換的距離,大幅降低信號損耗與功耗,同時提升數據傳輸速度,為AI晶片的高速運算提供穩定的數據通道。
(二)中間層:IC載板——晶片與PCB的橋樑
IC載板(IC Substrate)處於頂層晶片與底層PCB之間,是連接兩者的核心中繼部件,其作用類似於「轉換器」,彌補晶片與PCB之間的線路精度差異,同時提供機械支撐與電氣連接。
由於AI晶片的核心線路屬於奈米級精度,而系統PCB的線路精度僅為微米級,兩者無法直接對接,IC載板便承擔了銜接的重任。載板具備超高的線路密度,能夠將晶片的奈米級細線路轉換為PCB可兼容的微米級線路,確保數據信號能夠無損傳輸。此外,AI晶片運算過程中會產生大量熱量,載板還需具備一定的散熱性能與機械強度,防止因熱漲冷縮或機械震動導致線路斷路,保障晶片的穩定運行。
(三)底層:系統PCB——整機互連的基礎支撐|
系統PCB(Printed Circuit Board)即我們日常所見的綠色電路板,也是AI伺服器的母板,處於整個結構的最底層,是連接所有核心元件、實現整機供電與數據傳輸的基礎平台。
與普通PCB不同,AI伺服器的系統PCB需要承載GPU、CPU、電源模組、存儲模組等多種核心元件,並實現它們之間的高效互連。其核心作用是將頂層晶片傳輸的數據匯集、分配,同時為各元件提供穩定的供電,確保整個AI伺服器系統的協同運行。隨著AI晶片算力與數據傳輸速度的提升,系統PCB的性能要求也不斷提高,成為影響整機運行效率的重要環節。
二、HBM與CPO的核心角色差異:各司其職,互補協同
HBM與CPO雖然都是為了突破AI晶片的性能瓶頸而生,但兩者的核心定位、解決的問題與關鍵零組件存在明顯差異,分別聚焦於數據存儲與數據傳輸兩個不同環節,形成互補協同的關係,共同保障AI晶片的高效運轉。
從解決的核心問題來看,HBM主要針對「記憶體牆」問題。隨著AI晶片的運算能力不斷提升,傳統記憶體的數據搬運速度無法跟上運算速度,導致運算晶片經常處於等待數據的閒置狀態,算力無法充分釋放。HBM通過高速傳輸與緊鄰封裝設計,大幅提升數據搬運速度,讓運算晶片能夠即時獲取所需數據,徹底解決這一困境。
CPO則主要解決「傳輸牆」與「功耗牆」問題。傳統銅線在高頻高速傳輸數據時,會出現嚴重的信號損耗,同時產生大量熱量,不僅降低數據傳輸效率,還會增加晶片的功耗,制約晶片性能的進一步提升。CPO通過光電融合的方式,將光引擎與晶片共封裝,用光信號替代部分電信號傳輸,大幅降低信號損耗與功耗,同時提升數據傳輸速度,突破傳統銅線傳輸的瓶頸。
從關鍵零組件來看,HBM的核心零組件包括矽中介層(Silicon Interposer)與TSV(矽穿孔)技術。矽中介層負責連接運算晶片與HBM記憶體,提供穩定的電氣連接;TSV技術則實現記憶體晶粒的垂直堆疊,大幅提升記憶體的容量與傳輸速度,是HBM實現高速性能的核心技術支撐。
CPO的核心零組件則包括光子晶片(PIC)、電子晶片(EIC)與光纖連接。光子晶片負責實現電信號與光信號的轉換,是光電融合的核心;電子晶片負責驅動與控制光引擎的運行;光纖連接則負責光信號的長距離傳輸,確保數據在不同晶片或設備之間的高效傳輸。
總]體而言,HBM聚焦於晶片內部的數據存儲與近距離傳輸,解決「內部瓶頸」;CPO聚焦於晶片間或系統級的長距離高速傳輸,解決「外部瓶頸」,兩者相互配合,形成完整的數據傳輸鏈路,為AI晶片的高效運算提供保障。
三、AI晶片驅動下,載板與PCB的技術升級要求
隨著HBM與CPO技術的普及,AI晶片的算力、數據傳輸速度與功耗都發生了顯著變化,這也對中間層的IC載板與底層的系統PCB提出了更高的技術要求。只有載板與PCB實現相應升級,才能充分發揮HBM與CPO的性能優勢,確保整個AI晶片系統的穩定運行。
(一)IC載板的升級要求
AI晶片的高算力運行會產生大量熱量,同時數據傳輸頻率大幅提升,這就要求IC載板必須具備高層數、低熱膨脹系數(Low CTE)等核心特性。首先,高層數設計(通常需要20層以上)能夠容納更多的線路,滿足超高線路密度的需求,確保晶片與PCB之間的數據信號無損傳輸;其次,低熱膨脹系數的材質能夠有效避免因晶片運算產生的高溫導致載板熱漲冷縮,防止線路斷路或接觸不良,保障載板的穩定性與使用壽命。
此外,隨著HBM垂直堆疊層數的增加與CPO光引擎的集成,載板還需要具備更高的封裝精度與兼容性,能夠同時適配HBM與CPO的安裝需求,實現與頂層晶片、底層PCB的無縫對接,進一步提升數據傳輸效率。
(二)系統PCB的升級要求
系統PCB作為整機互連的基礎,其性能直接影響AI伺服器的整體運行效率。隨著AI晶片數據傳輸速度的提升,傳統PCB的材質與設計已無法滿足高頻高速傳輸的需求,必須進行相應升級。
核心升級方向主要集中在材料選擇上,AI伺服器的PCB需要採用M6/M7/M8/M9/M10等級的高頻高速材料。這類材料具有低介電損耗、低信號衰减的特性,能夠有效降低高頻高速信號傳輸過程中的損耗,確保數據傳輸的穩定性與完整性。例如NVIDIA的GB200方案,其採用的高頻高速PCB材料,不僅大幅提升了數據傳輸速度,還讓PCB的價值量相比傳統伺服器實現了巨大成長,成為AI伺服器的核心價值部件之一。
此外,系統PCB還需要具備高層數、高精密線路設計,能夠容納更多的元件連接,同時實現各元件之間的高效互連,避免因線路擁擠或接觸不良導致的性能損耗,為HBM與CPO技術的性能釋放提供堅實的基礎支撐。
四、數據傳輸路徑總結:從核心到整機的完整閉環
綜合上述分析,AI晶片的數據傳輸形成了一條從核心到整機的完整閉環,清晰體現了HBM、CPO、IC載板與系統PCB的協同作用。具體來說,數據從主晶片與HBM出發,若為光信號,則先經過CPO光引擎完成光電轉換,再通過IC載板的微細線路傳輸;若為電信號,則直接透過IC載板的微細線路進行傳輸;最後,所有數據匯集到系統PCB上,由PCB實現數據的分配、傳輸與整機供電,確保整個AI伺服器系統的正常運行。
這一傳輸閉環中,HBM負責數據的高速存儲與近距離搬運,CPO負責高速信號的光電轉換與長距離傳輸,IC載板負責信號的轉換與銜接,系統PCB負責整機的互連與供電,四者各司其職、互補協同,共同突破了AI晶片的數據傳輸與功耗瓶頸,推動AI晶片性能的不斷提升。
AI產業持續升級的背景下,HBM與CPO技術的迭代速度將不斷加快,與此對應的IC載板與PCB技術也將迎來進一步升級。未來,隨著技術的不斷突破,四者的集成度將更高,性能將更優,為人工智慧的深度發展提供更強大的硬體支撐,推動AI應用在各個領域的廣泛落地。












